李宏毅機器學習筆記(4): Gradient descent

          此次主要是聊梯度降低的細節與技巧,上次講過了梯度降低的步驟。算法 1 回顧 還記着以前提到過的嗎,梯度降低能夠在複雜龐大的數據中尋找局部最優解,對loss function處理中有比較好的應用。咱們須要對參數進行處理,可使用梯度降低法。函數 再重溫梯度降低過程吧(具體能夠看第二篇迴歸):學習 實際的要求是尋找一組參數,須要損失函數達到最小值:3d θ=argminL(θ)視頻
相關文章
相關標籤/搜索