學習率優化(一)

上節介紹了反向傳播時權值更新方法,更新隱含層:;更新輸出層:。看似已經完美的解決了問題,可是怎麼取值呢?python 咱們把問題轉化到求二次函數極值問題,例如,若是用梯度降低法求函數極值,每一次的取值爲,一步步趨近極小值。函數 若是採用固定學習率:,初始值取,學習率使用0.01:學習   分析:通過200次迭代,;通過1000次迭代,;大數據 效果還能夠,但這個學習率只使用於,若是改變函數還能夠這
相關文章
相關標籤/搜索