機器學習筆記【數學基礎1——微積分】

機器學習筆記【數學基礎1——微積分】 微積分 SGD原理 梯度下降法 隨機梯度下降 小批量梯度下降 Momentum原理 Adagard原理 Adam原理 Adam的高效性 參考引用 機器學習的過程中涉及了許多的公式推導,紮實的數學基礎是尤爲重要的。在此記錄學習過程中的所學所想。 微積分 SGD原理 SGD(Stochastic Gradient Descent)隨機梯度下降。要理解隨機梯度下降,
相關文章
相關標籤/搜索