【task1】動手學深度學習PyTorch版筆記

優化函數 - 隨機梯度下降 當模型和損失函數形式較爲簡單時,上面的誤差最小化問題的解可以直接用公式表達出來。這類解叫作解析解(analytical solution)。本節使用的線性迴歸和平方誤差剛好屬於這個範疇。然而,大多數深度學習模型並沒有解析解,只能通過優化算法有限次迭代模型參數來儘可能降低損失函數的值。這類解叫作數值解(numerical solution)。 在求數值解的優化算法中,小批
相關文章
相關標籤/搜索