Fast.ai推出NLP最新遷移學習方法「微調語言模型」,可將誤差減少超過20%!

原文來源:arxiv 作者:Jeremy Howard、Sebastian Ruder 「雷克世界」編譯:嗯~是阿童木呀 可以這樣說,遷移學習已經促使計算機視覺領域發生了具有革命性的變化,但對於自然語言處理(NLP)中的現有方法來說,仍然需要從零開始對其進行鍼對於特定任務的修改和訓練。我們提出了微調語言模型(Fine-tuned Language Models,FitLaM),這是一種有效的遷移學
相關文章
相關標籤/搜索