各類機器學習算法原理及優缺點

一、邏輯迴歸 1.1 原理 將線性迴歸的結果通過sigmod函數映射到0到1之間,如果結果越接近0或者1,說明分類結果的可信度越高,對於線性不可分的數據,可以對非線性函數進行線性加權,得到一個不是超平面的分割面。     在進行分類時,通過比較上面兩式的大小來將輸入實例分配到概率值大的那一類。   本質上是線性函數 1.2 目標函數: 交叉熵損失函數/負對數似然函數   1.3 梯度 迭代公式:
相關文章
相關標籤/搜索