論文閱讀筆記-CVPR 2020: Attentive Weights Generation for Few Shot Learning via Information Maximization

摘要 AWGIM:通過信息最大化實現小樣本學習的注意力權重生成 論文的主要貢獻有兩個: 生成的權重與輸入數據之間的互信息最大化 使得生成的權重能夠保留小樣本學習任務和特定查詢樣例的信息。 兩條注意力路徑:自我注意和交叉注意 對小樣本學習任務的上下文和個性化查詢進行編碼 論文寫作框架 簡介 相關工作 2.1. 小樣本學習 2.2. 注意力機制 2.3. 互信息 提出的方法 3.1. 問題的形式化定義
相關文章
相關標籤/搜索