機器學習基礎 - [第三章:邏輯迴歸](4)邏輯迴歸模型的代價函數簡化表示與梯度下降

1、多個訓練樣本的代價函數簡化表示 前一篇文章中,我們我們已經知道了單訓練樣本 c o s t ( h θ ( x ) , y ) cost(h_{\theta}(x),y) cost(hθ​(x),y)的分段表示,實際上,它還可以寫成更緊湊的形式: c o s t ( h θ ( x ) , y ) = − y l o g ( h θ ( x ) ) − ( 1 − y ) l o g ( 1
相關文章
相關標籤/搜索