[斯坦福大學2014機器學習教程筆記]第二章-代價函數(2)

    這一節,咱們將更直觀得理解代價函數的做用。函數

    首先,咱們複習一下以前講的內容。spa

    和上一節不一樣,這節討論的時候保留所有參數,即θ0和θ13d

    如今咱們有一個關於住房價格的訓練集,讓咱們來作一些假設,假設hθ(x)=50+0.06x,畫出直線以下圖,顯然這是一個不太好的假設,咱們此時能算出J(50,0.06)的值。blog

                                   

     在上一講中,咱們獲得的圖形爲一個曲線,在這節中咱們獲得的是一個3D曲面圖。(縱軸座標爲θ0和θ1im

    當你改變θ0和θ1這兩個參數的時候,你會獲得不一樣的代價函數J(θ01)的值。點J(θ01)對應的曲面的高度就是J(θ01)的值。下面咱們不會用3D曲面圖來表示,咱們會有等高線圖來表示。下面是一些等高線圖的例子。margin

     右側的圖中,軸分別爲θ0和θ1,其中每個橢圓形表明着一系列J(θ01)值相等的點。右圖上取一個點(圖上的紅點,大概是θ0=800,θ1=-0.15),所對應的函數如左圖所示,顯然這並無很好地擬合訓練集。咱們觀察右圖就會發現,它的值其實離最小值仍是很是遠的,可見這是一個至關高的代價(擬合得很是很差)。db

    咱們再來看另外幾個例子。咱們發現離最小值越近的時候擬合得越好。img

     

    越接近最小值的假設,對應着越好的假設函數。di

相關文章
相關標籤/搜索