文本生成:基於GPT-2的中文新聞文本生成

文本生成一直是NLP領域內研究特別活躍的一個任務,應用前景特別普遍。BERT類預訓練模型基於MLM,融合了雙向上下文信息,不是自然匹配文本生成類任務(也有針對BERT模型進行改進的多種方式完善了BERT的這個缺點,如UniLM)。openAI的GPT-2模型自然適合文本生成類任務,所以使用GPT-2模型來完成中文新聞文本生成任務。 代碼及數據、模型下載連接:網盤連接,提取碼:8gozpython
相關文章
相關標籤/搜索