複用預訓練層

從零開始訓練一個非常大的 DNN 通常不是一個好主意,相反,您應該總是嘗試找到一個現有的神經網絡來完成與您正在嘗試解決的任務類似的任務,然後複用這個網絡的較低層:這就是所謂的遷移學習。這不僅會大大加快訓練速度,還將需要更少的訓練數據。 例如,假設您可以訪問經過訓練的 DNN,將圖片分爲 100 個不同的類別,包括動物,植物,車輛和日常物品。 您現在想要訓練一個 DNN 來對特定類型的車輛進行分類。
相關文章
相關標籤/搜索