GPT-3:Language Models are Few-Shot Learners 論文解讀

paper連接:https://arxiv.org/abs/2005.14165git github連接:https://github.com/openai/gpt-3github 摘要 經過對大量文本進行預訓練,而後對特定任務進行微調,最近的工做證實了在許多NLP任務和基準方面的巨大收穫。儘管在結構上一般與任務無關,可是此方法仍然須要特定於任務的微調數據集,該數據集包含成千上萬個示例。相比之下,
相關文章
相關標籤/搜索