李宏毅機器學習5(P9)

文章目錄 一.推導LR損失函數 二.學習LR梯度下降 三.利用代碼描述梯度下降(選做) 四.Softmax原理 五.softmax損失函數 六.softmax梯度下降 一.推導LR損失函數 邏輯迴歸的函數是 f w , b ( x ) = σ ( ∑ i w i x i + b ) f_{w, b}(x)=\sigma\left(\sum_{i} w_{i} x_{i}+b\right) fw,b
相關文章
相關標籤/搜索