吳恩達機器學習之單變量線性迴歸筆記

1.假設函數:即假設模型,比如線性函數 2.代價函數:最小化函數 3.梯度下降:分2部分,學習率和導數。當趨近局部最優時,導數值逐漸下降,如果學習率不變,梯度下降步長也逐漸減小 4.凸函數:局部最優,即是全局最優。如線性迴歸的代價函數就是凸函數 5.Batch Gradient descend:梯度下降過程,即迭代更新參數過程中,每一步迭代使用所有的訓練集數據 線性迴歸模型及梯度下降求解算法原理
相關文章
相關標籤/搜索