OpenAI-GPT(Generative Pre-Training)詳解

在GPT出現之前,通用的使用預訓練的方式是word2vec,即學習詞語的表達。而在GPT出現之後,通用的預訓練方式是預訓練整個網絡然後通過fine-tune去改進具體的任務。 GPT出現之後,引發了Bert,XLNet等一系列的地震式改進。對NLP任務的影響十分深遠。 GPT的核心思想是先通過無標籤的文本去訓練生成語言模型,再根據具體的NLP任務(如文本蘊涵、QA、文本分類等),來通過有標籤的數據
相關文章
相關標籤/搜索