機器學習第二回總結——多變量線性迴歸

一.多特徵量情況下的假設形式 對圖片上的知識點進行剖析:x與θ都是向量,將x0設爲1,便可以用θ的轉置與x向量的內積來簡單表示h(x)——>多元線性迴歸 二.如何設定假設的參數【使用梯度下降法來處理多元線性迴歸】 將θ和J(θ)都看作向量,重新定義我們上節課學習那幾個概念。 梯度下降法的多元表達 其實與之前我們學的內容還是很相似的,每一次的更新過程依舊是獨立的,在導數項中,重新定義了x變量的下標
相關文章
相關標籤/搜索