Stochastic Gradient Descent ( 隨機梯度下降 )

Stochastic Gradient Descent (SGD) ( 隨機梯度下降( SGD ) ) 是一種簡單但非常有效的方法,用於在諸如(線性)支持向量機和 邏輯迴歸 之類的凸損失函數下的線性分類器的辨別學習。即使 SGD 已經在機器學習社區中長期存在,但最近在大規模學習的背景下已經受到了相當多的關注。 SGD 已成功應用於文本分類和自然語言處理中經常遇到的大規模和稀疏機器學習問題。 SGD
相關文章
相關標籤/搜索