【學習筆記】斯坦福大學公開課: cs229 Learning Theory【下】

上回講到了,當假設空間H是有限集時,當咱們的訓練數據的數目知足必定要求的時候,使用ERM選出的假設h^的經驗偏差可以對其泛化偏差作一個很好的估計,兩者以很大機率很是接近,術語叫作「一致收斂」;並且,h^的泛化偏差與理想情況下的假設h*的泛化偏差也以大機率接近,咱們也獲得了對應的一致收斂定理。那麼,當H是無限集的時候會怎麼樣呢?算法 我的認爲,Ng老師這節課講的不是很透徹,至少我聽完一遍以後仍是雲裏
相關文章
相關標籤/搜索