林軒田機器學習基石筆記(第27節)——VC Dimension of Perceptrons

一、複習2D PLA算法 如下圖所示,左邊紅色部分表示如果數據集 D D 是線性可分的情況下,PLA算法最終會停下來,我們會得到一條能夠把所有數據都二分爲兩類的線段,該線段能夠保證在已知的數據上犯錯的概率爲0,即 Ein(g)=0 E i n ( g ) = 0 。 圖中右邊部分,則通過霍夫丁不等式從側面證明了如果我們數據量夠大,並且 dVC d V C 已知的情況下,我們可以保證 Ein(g)≈
相關文章
相關標籤/搜索