論文閱讀:Generating Abstractive Summaries with Finetuned Language Models

文章簡介: 作者認爲神經摘要模型可以利用預先訓練的語言表示來生成更抽象的文本 主要方法: 很多摘要生成是在源文本複製詞,而不是去理解 解釋它,而作者解釋作者使用的數據集TK;DR數據集,的摘要是人工撰寫,不同於一些用複製+少量人工撰寫的新聞數據集; 模型對比: 其中Transformer+Pretrain,是採用的【1】 pseudo self attention method:S是encoder
相關文章
相關標籤/搜索