凸函數與凹函數

    最近在學機器學習的邏輯迴歸,它的思路很簡單,最開始我們做的是線性迴歸,也就是根據已知樣本擬合出一條能夠描述其分佈的線來,而它的評價標準是最小平方差。     爲什麼是最小平方差,而不是諸如差的絕對值之類的評價指標,這個就涉及到「最小二乘法」的思想,我們認爲線性迴歸的預測值與真實值之間的差值是符合高斯分佈的,對這個的評估就轉化爲對正態分佈表達式中參數的評估,用極大似然估計,便得到損失函數的表
相關文章
相關標籤/搜索