GPT的前世今生

GPT、GPT-2、GPT-3對比 一、GPT 1.無監督pre-training 2. 有監督fine-tuning 二、GPT-2 三、GPT-3 一、GPT 簡單來說,GPT的底層架構是transformer,是由pre-training和fine-tuning兩部分構成的。 1.無監督pre-training transformer裏有encoder層和decoder層,而GPT裏主要用的
相關文章
相關標籤/搜索