BERT的原理與應用

我們在第七章介紹了遷移學習與計算機視覺的故事,不過好故事並沒有這麼快結束。遷移學習一路前行,走進了自然語言處理的片場。遷移學習在自然語言處理(NLP)領域同樣也是一種強大的技術。由這種技術訓練出來的模型,我們稱之爲預訓練模型。 預訓練模型首先要針對數據豐富的任務進行預訓練,然後再針對下游任務進行微調,以達到下游任務的最佳效果。遷移學習的有效性引起了理論和實踐的多樣性,人們通過遷移學習與自然語言處理
相關文章
相關標籤/搜索