【學習筆記】斯坦福大學公開課: cs229 Learning Theory【下】

上回講到了,當假設空間H是有限集時,當我們的訓練數據的數目滿足一定要求的時候,使用ERM選出的假設h^的經驗誤差能夠對其泛化誤差做一個很好的估計,二者以很大概率非常接近,術語叫做「一致收斂」;而且,h^的泛化誤差與理想狀況下的假設h*的泛化誤差也以大概率接近,我們也得到了對應的一致收斂定理。那麼,當H是無限集的時候會怎麼樣呢? 個人認爲,Ng老師這節課講的不是很透徹,至少我聽完一遍之後還是雲裏霧裏
相關文章
相關標籤/搜索