Machine Learning Week 1 Quiz 2 (Linear Regression with One Variable) Stanford Coursera_錯題彙總

1。 設f是某種功能所以 f(θ0,θ1)輸出一個數字。對於這個問題, f是一些任意/未知的平滑函數(不一定是 線性迴歸的成本函數,因此f可能具有局部最優)。 假設我們使用梯度下降來嘗試將f(θ0,θ1)最小  化爲θ0和θ1的函數。哪一個 以下陳述是真的嗎?(檢查所有適用。)   回答:   即使學習率α非常大,梯度下降的每次迭代都會減小f(θ0,θ1)的值。 如果學習速率太小,則梯度下降可能需
相關文章
相關標籤/搜索