深度學習: greedy layer-wise pre-training (逐層貪婪預訓練)

從UFLDL棧式自編碼器摘來的話: 每次只訓練網絡中的一層,即我們首先訓練一個只含一個隱藏層的網絡,僅當這層網絡訓練結束之後纔開始訓練一個有兩個隱藏層的網絡,以此類推。 在每一步中,我們把已經訓練好的前k-1層固定,然後增加第k層(也就是將我們已經訓練好的前k-1的輸出作爲輸入)。每一層的訓練可以是有監督的(例如,將每一步的分類誤差作爲目標函數),但更通常使用無監督方法(例如自動編碼器)。 這些各
相關文章
相關標籤/搜索