Group-wise Contrastive Learning for Neural Dialogue Generation 閱讀筆記

摘要 爲解決生成多樣性低的問題 思想 找到正向和負向group的context和response,設計loss 做法 首先有 其中pn是baseline模型,pm是target模型 其中c是輸入文本 r是回覆文本, 構造loss: 最大化正向回覆,最小化負向回覆 這個loss即刻畫 相對baseline模型的生成多樣性 或 分佈distinctiveness 正向回覆和負向回覆的採樣,使用了BM2
相關文章
相關標籤/搜索