深度學習網絡基礎解析(二)

引言 前一篇文章我們提到了損失函數,並且我們談到了一個很有意思的問題,即雖然通常來說我們進行迭代的目的是減小loss的值,但loss函數的值並不一定是越小越好。 損失與風險 損失函數就像上節我們所講的一樣,是表徵模型輸出值和期望值相近程度的函數,這個函數不只是深度學習,在整個機器學習領域都有應用,而通常來說我們會在模型裏使用到均方誤差來衡量這個值,就像下式: 但是我們可以看出來,這個函數僅僅只是衡
相關文章
相關標籤/搜索