機器學習實戰(基於scikit-learn和TensorFlow)學習心得(17)--梯度下降法

當我們需要尋找多元線性函數迴歸方程的時候,除了直接計算法,通過多次梯度的迭代求得最優的theta值. batch Gradient Descent 批次梯度下降法,這個下降法就是按部就班的來計算梯度,找切線位置通過幾次迭代找到最優解. 注意,上面的函數中包含theta,所以說我們要隨機設一個初始值以便開始迭代. 計算出cost function的梯度之後就可以向最小梯度的方向迭代了.但要注意的是設
相關文章
相關標籤/搜索