svm的幾個疑問

支持向量所在的超平面爲何是theta^t * x= -1 和theta^t * x = -1 (有時也寫爲theta^t * x + b = 0的形式,但是把x0總設爲1,b也可以作爲theta的一部分) 李航的《統計學習方法》裏有比較嚴密的推導,可是我看不太懂。但是書裏提到,合頁損失函數和那套推理是等價的,所以可以用吳恩達在《機器學習》課程裏的圖來理解。至於爲什麼等價,請看書。 邏輯迴歸的損失函
相關文章
相關標籤/搜索