Logistic Regression的思考與整理

在NYU上了Machine Learning,學到了一些以前沒有注意或者不知道的知識。在原有部分博文的基礎上進行更詳細地講解。 關於迴歸算法的Bias和Variance 加深了對誤差理論的理解。 對於一個輸入爲 x⃗  的迴歸算法,我們設算法輸出的預測函數爲 g(x) ,算法的真正分類函數爲 f(x) 。我們期望的就是讓 g(x) 儘可能地與 f(x) 靠近。 我們將 f(x) 和 g(x) 當成
相關文章
相關標籤/搜索