我在b站學ML(二)

線性迴歸以及使用梯度下降算法最小化代價函數 監督學習: 訓練集——>學習算法——>得到一個函數h。自變量x——>函數h——>輸出因變量y的值,h是x到y的函數映射 分類問題是預測離散的輸出值,0/1離散輸出問題 而回歸一詞指的是我們根據之前的數據預測出一個準確的輸出值,線性迴歸中我們要解決的是一個最小化問題,我們要做的事是儘量減少假設的輸出值與真實值之間差的平方(hθ(x) - y)^2,對每個樣
相關文章
相關標籤/搜索