機器學習筆記(2)----「沒有免費的午飯」定理

「沒有免費的午飯」定理(No Free Lunch Theorem,簡稱NFL)算法 先來看一個例子。假設學習算法a基於某種概括偏好產生了對應於A的模型,學習算法b基於另外一種概括偏好產生了對應於曲線B的模型。性能 基於奧卡姆剃刀原理,咱們會期待算法a比算法b更好。確實,如圖(a)所示,和B相比,A與訓練集外的樣本更一致;換言之,A的泛化能力比B強。學習 可是,且慢!雖然咱們但願並相信算法a比b更
相關文章
相關標籤/搜索