機器學習視頻第二章2

上接梯度降低算法算法

當覺得的係數變成了變量來求導,意外的結果是顯然的。會化簡公式方程爲:θ0:=θ0 - α(1/m)Σ(h(x)-y);θ1:=θ1 - α(1/m)Σ(h(x)-y)*x.能夠同時計算值了。h(x)=θ0 + θ1x.變量

批次梯度降低。有能夠不須要迭代而直接求出θ1和θ0的算法。可視化

當特徵增多,不只是房子大小,還有臥室數量,房子年份等多個特徵時,想利用這些特徵變量來綜合預測房子的價格。要描繪並可視化這些變量十分困難 。已經超三維了。我想了個主意,就是2^n個映射到2^(n-1)再映射到2^(n-2)等等。有點多呀。仍是上矩陣論吧。ax=b,多麼簡單,多麼簡潔。數字

線性代數知識:矩陣論:再來一遍。向邱老師致敬,一位會算兩位數之內加加減減的神人。

42 X 23 = 4*3。 向量只有一列。Yi表明向量第i個元素。大寫字母表示矩陣,小寫字母表示向量或數字。矩陣相加,相應位置相加,維度相同。具體到矩陣內相應位置的元素計算。

求解Ax=y 。 h(x)=40+5x .其中40的係數能夠看做1,x值是一個向量,[1,x]X[2*1] =h(x) 得出一個向量。多好,就這麼算出來了,一個簡單的假設。矩陣的思想,先乘再加。高效,機智。

相關文章
相關標籤/搜索