李宏毅 -DeepLearning-2017-Why Deep

主講內容:CNN DNN的優勢!!!!! CNN的layer層數越深,得到的word Error就越低,因爲層數越深,參數就會越多,同時就會得到更好的結果,如圖: 那麼我們拿兩個參數幾乎一樣的參數的cnn但是層數不一樣,一個是高瘦,另一個是矮胖的比較哪個更好呢?例如: 圖中箭頭雙方模型的參數樹木是接近的。我們會發現,一層的矮胖的network的performance的能力是有限的,那麼怎麼來衡量呢
相關文章
相關標籤/搜索