P10:邏輯迴歸

        源視頻 一、邏輯迴歸 vs 線性迴歸(尤其注意損失函數):         雖然損失函數定義的不一樣,但是最後化簡後發現和線性迴歸是一樣的。         那爲什麼把邏輯迴歸的損失函數定義成square error呢?原因如下:         總結:當定義成square error時,隨機參數一般會使模型離最理想的狀態還有一定差距,但是這個時候模型的學習的梯度會非常小,甚至爲0
相關文章
相關標籤/搜索
本站公眾號
   歡迎關注本站公眾號,獲取更多信息