GPT1-3(GPT3/few-shot,無需finetune)

GPT1–finetune 12層單向transformer 預訓練+精調 被bert比下去了 GPT2-元學習 輸入:加上任務描述 「英翻法:This is life」 輸出: 「C’est la vie」 參數15億 在NLU:比不上bert 也比不過其他大參數模型:如Turing-NLG GPT3-Language Models are Few-Shot Learners paper鏈接:h
相關文章
相關標籤/搜索