GPT2文本生成有問題?這裏有些潛在解決思路

作者 | Leo Gao 譯者 | 凱隱 編輯 | 夕顏 出品 | AI科技大本營(ID: rgznai100)  【導讀】在過去的一年中,人們對文本生成模型的興趣重新燃起,這在很大程度上要歸功於GPT2,它主要展示了使用更大模型、更大數據和更大計算量的Transformer架構的有效性。值得注意的是,在沒有經過訓練的情況下,該模型在幾個語言建模數據集上就獲得了SOTA結果,這顯示了其驚人的泛化能
相關文章
相關標籤/搜索