Controlling the Amount of Verbatim Copying in Abstractive Summarization

[arXiv] ------- [github] 文本摘要(Text Summarization)作爲NLP中一個重要的子任務一直以來都受到了廣泛的關注,雖然問題本身的定義很簡單且直觀,但目前已有的模型或方法得到的結果並不理想。直到最近各種預訓練模型的出現在一定程度上提升了評估指標的數值,並且不管是針對於長文檔還是普通的短文檔,最終生成的摘要結果還是很好的。但是如何更好的利用BERT等已有的預訓練
相關文章
相關標籤/搜索