論文閱讀筆記《Meta-SGD: Learning to Learn Quickly for Few-Shot Learning》

核心思想   本文是在MAML的基礎上進一步探索利用元學習實現無模型限制的小樣本學習算法。思路與MAML和Meta-LSTM比較接近,首先MAML是利用元學習的方式獲得一個較好的初始化參數,在此基礎上只需要進行少量樣本的微調訓練就可以得到較好的結果,這種方式實現簡單,但由於只對初始化參數進行學習,模型的容量有限。Meta-LSTM則是利用LSTM網絡作爲外層網絡對內層網絡的各項優化參數(學習率、衰
相關文章
相關標籤/搜索