論文學習-ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation

論文學習-ReCoSa: Detecting the Relevant Contexts with Self-Attention for Multi-turn Dialogue Generation Motivation &Novety 在多輪對話生成中,上下文語義對模型下一步的對話生成產生很重要,目前在多回合對話生成中廣泛採用的是分層遞歸模型等。他們不加區別的對待所有上下文會損害模型的性能。 本
相關文章
相關標籤/搜索