機器學習中的損失函數

開篇 很多時候,機器學習的算法是可以按照損失函數來劃分的,像我以前博客中提到的LR和SVM的區別,首先它們的損失函數就是不一樣的。這邊我還是先整理一部分損失函數,近期會逐步的完善。 交叉熵損失函數 交叉熵就是用來判定實際的輸出與期望的輸出的接近程度 關於熵的一些概念,這邊不多加贅述,大家可以參考我的博客 這邊的話,其實最開始的主要目的就是衡量兩個概率分佈的距離,如何是衡量兩個分佈的距離呢,這裏需要
相關文章
相關標籤/搜索