機器學習notes 之 梯度下降

1.問題背景 在學習 邏輯迴歸算法 和 GBDT算法 等過程中,總是會碰見對損失函數用梯度下降的方法求最小值; (梯度下降的方法非常重要,因爲很多模型的損失函數求最小值並沒有直接的數學解析解,如果能用數學解析解求最小值的損失函數,用梯度下降的也能求解最小值,來goodness得到模型。可以說梯度下降是機器學習的基石,也是人工智能的基石) 所以,損失函數到底長什麼樣子?能不能可視化? 梯度下降的過程
相關文章
相關標籤/搜索