Chang-Xiao Li Machine Learning 2019 Task5

1.推導LR損失函數   損失函數: 給定一組參數w和b最大自然估計爲: 取對數: 變換形式: 即爲兩個伯努利分佈的交叉熵。 LR的損失函數爲: 2.學習LR梯度下降 因此 LR 梯度下降: 3.學習LR梯度下降 4.softmax原理 對於多分類問題 5.softmax損失函數   6.softmax梯度下降
相關文章
相關標籤/搜索