機器學習理論推導——梯度下降和邏輯迴歸

 下面介紹梯度下降法: 假設一個線性模型: 爲了便於描述,定義: 我們需要選擇合適的參數θ0和θ1,使得h(x)和樣本中的y儘可能接近。 統計學中,利用最小二乘法可以得到兩個參數的解析解: 但是我們將使用計算機科學的常用思想:迭代來求出這兩個值,因爲在這裏模型的簡單使得我們非常容易地計算出解析解。實際中我們的模型可能非常複雜,無法求出解析解,因此使用迭代思想是一種通用的解法。 我們的目標和最小二乘
相關文章
相關標籤/搜索