Self-Supervised Learning for Contextualized Extractive Summarization

ACL 2019 Self-Supervised Learning for Contextualized Extractive Summarization github 背景 本文所表述的內容十分的清晰明瞭,同樣也很簡單,即如何使用不同的預訓練策略來提升抽取式摘要任務的效果。作者指出:現有的模型在抽取句子使用交叉熵訓練模型時,往往只考慮了句子級別的信息,並沒有很好的捕獲全局或說是文檔級的信息,因此
相關文章
相關標籤/搜索