論文筆記:Self-critical Sequence Training for Image Captioning

論文連接:Self-critical Sequence Training for Image Captioningnode 引言 如今image caption主要存在的問題有:web exposure bias:模型訓練的時候用的是叫「Teacher-Forcing」的方式:輸入RNN的上一時刻的單詞是來自訓練集的ground-truth單詞。而在測試的時候依賴的是本身生成的單詞,一旦生成得很差
相關文章
相關標籤/搜索