coursera Machine Learning--吳恩達--week2 學習筆記

1多變量線性迴歸 (對比單變量線性迴歸) 1.1多變量假設:輸入爲多維特徵。 1.2擬合函數: 這裏令x0 = 1,將變量向量化,向量化的過程如下: 1.3 損失函數和梯度下降 對比單變量,損失函數知識參數變多: 梯度下降法也沒有變,只是需要同時更新的參數變多: - 參數變多,加之樣本數量變多,原來的批梯度下降收斂速度慢,改進方式爲:隨機梯度下降 1.4 feature scaling 讓所有fe
相關文章
相關標籤/搜索