《Deep Learnning Tutorial》筆記(三)

上兩篇博文都是對深度學習進行一個簡要的瞭解,見識一下這個新的世界。接下來繼續學習。 Why Deep? 先看一個表格: 我們可以發現,當層X的size越大,出錯率越低。所以參數越多,訓練效果越好,這是不足爲奇的!! 有一個普遍定理: 任何連續的函數 f:RN→RM 可以通過一個帶有一層隱藏層的網絡實現(這個層有足夠多的隱藏神經元)。當然也可以通過多層隱藏層實現。 那麼我們試想一下神經網絡的結構,如
相關文章
相關標籤/搜索