理解神經網絡中的目標函數

本文面向稍有經驗的機器學習開發者,來自微軟的 Lars Hulstaert 在文中爲我們介紹了訓練神經網絡的幾種目標函數。 介紹 本文的寫作動機有以下三個方面: 首先,目前有很多文章都在介紹優化方法,比如如何對隨機梯度下降進行優化,或是提出一個該方法的變種,很少有人會解釋構建神經網絡目標函數的方法。會去回答這樣的問題:爲什麼將均方差(MSE)和交叉熵損失分別作爲迴歸和分類任務的目標函數?爲什麼增加
相關文章
相關標籤/搜索