"A Diversity-Promoting Objective Function for Neural Conversation Models"閱讀筆記

由於最近在作的chatbot實驗效果不太好,老是會出現一些沒有養分的回覆,如我不知道等等。因此查了一些資料,發現李紀爲大神的篇文章是提供了處理這個問題的方法,因此借鑑了一下,順便寫一下博客記錄。web 文章主要的貢獻是使用了最大互信息MMI代替經常使用的最大後驗機率MLE等做爲目標函數。MLE這個目標函數最經常使用在機器翻譯任務上,最大的優點在於能夠產生最天然的語言,可是多樣性很差。對話任務和翻譯
相關文章
相關標籤/搜索