A Diversity-Promoting Objective Function for Neural Conversation Models論文閱讀

1,概述   對於seq2seq模型類的對話系統,無論輸入是什麼,都傾向於生成安全,通用的回覆(例如 i don't know 這一類的回覆),因爲這種響應更符合語法規則,在訓練集中出現頻率也較高,最終生成的概率也最大,而有意義的響應生成概率往往比他們小。如下表所示:      上面的表中是seq2seq對話系統產生的結果,分數最高的回覆通常是最常見的句子,當然更有意義的回覆也會出現在N-best
相關文章
相關標籤/搜索