讀論文2018 ACL A unified model for extractive and abstractive summarization using inconsistency loss

Abstract 提出了一個兼具抽取式和生成式優點的摘要模型。一方面,簡單的抽取式模型可以包含句子級別的attention,且句子集合的ROUGE分數很高,但句子可讀性差。另一方面,一個非常複雜的摘要模型可以包含句子級別動態計算的注意力來生成一個可讀的段落。本論文提出的模型:句子級別的注意力被用來改善詞級別的注意力,如在句子中參與少的詞生成的概率更少。此外,inconsistency loss f
相關文章
相關標籤/搜索