ICML 2020 | Google提出最強生成式摘要預訓練模型——天馬

©PaperWeekly 原創 · 作者|蔡傑 學校|北京大學碩士生 研究方向|QA 論文標題:PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 論文來源:ICML 2020 論文鏈接:https://arxiv.org/abs/1912.08777 代碼鏈接:https://githu
相關文章
相關標籤/搜索