【李宏毅機器學習筆記3】Gradient Desccent:梯度下降

背景博客參考:https://blog.csdn.net/soulmeetliang/article/details/72830179 梯度下降非常重要~篇幅也比較長,耐心看(PS:我認爲純數學的推導過程可以選擇性的看,過程只是加深理解) 註釋2:所有之前參數W的偏微分的均方根 3:η是隨時間變化的參數 註釋1:gradient究竟是大還是小,是比較得出的,所以用gradient➗之前參數得出的所
相關文章
相關標籤/搜索