GPT模型:Improving Language Understanding by Generative Pre-Training

參考鏈接 https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf https://github.com/openai/finetune-transformer-lm 論文模型概述 論文模型訓練過程包括兩步: 第一步: 在大預料庫訓練高容量的語言模型; 第二步: 要特殊任務的有標籤的數據集上微調預訓練的語言模型
相關文章
相關標籤/搜索