吳恩達機器學習(第二章)----線性迴歸

線性迴歸要做的主要包含代價函數和梯度下降。 一、基本解釋 線性迴歸的過程其實就是我們在選擇好某個類型的函數之後去不斷的擬合現有的數據,那麼什麼情況下我們這個函數是最符合,最貼近我們這些數據的呢?就是在代價函數的值最小的時候。 二、代價函數 假設要擬合的函數是h(x)=  x0固定是1因此第一項表示常數。 (m爲數據的條數) 代價指的就是h(x)與真實的y相差得多少。即求與真實值之間的差別的和的平均
相關文章
相關標籤/搜索