機器學習面試常見問題--線性迴歸、邏輯迴歸、交叉熵、多分類

1,線性迴歸與邏輯迴歸區別? 在擬合數據上,線性迴歸是用一條線直接擬合訓練數據,而邏輯迴歸先利用sigmoid函數將數據映射爲相應分類的概率擬合概率; 在學習策略上,線性迴歸利用最小二乘法使損失函數(均方誤差)最小化,而邏輯迴歸利用梯度下降法使損失函數(最大似然函數/交叉熵)最小化,即求所有訓練樣本的條件概率之積的最大值。 2,爲什麼用對數似然函數? 使用最大似然函數時,很多樣本的概率需要連乘,概
相關文章
相關標籤/搜索