NLP模型應用之三:GPT與GPT-2

GPT模型 GPT全稱Generative Pre-Training,出自2018年OpenAi發佈的論文《Improving Language Understandingby Generative Pre-Training》,論文地址:https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf。html 在天然語
相關文章
相關標籤/搜索