Machine Learning - Coursera week5 Backpropagation in Practice

1. Gradient Checking 我們討論瞭如何進行前向傳播以及後向傳播,從而計算導數。但有一個不幸的消息是,它們有很多細節會導致一些BUG。 如果你用梯度下降來計算,你會發現表面上它可以工作,實際上, J雖然每次迭代都在下降,但是可能表面上關於theta的函數J在減小而你最後得到的結果實際上有很大的誤差。有一個想法叫梯度檢驗Gradient Checking。 假設我們有一個關於thet
相關文章
相關標籤/搜索