BERT在多模態領域中的應用

©PaperWeekly 原創 · 作者|李明曉 學校|魯汶大學博士生 研究方向|自然語言處理 BERT (Bidrectional Encoder Representations from Transformers) 自提出後,憑藉着 Transformer 強大的特徵學習能力以及通過掩碼語言模型實現的雙向編碼,其大幅地提高了各項 NLP 任務的基準表現。 鑑於其強大的學習能力,2019 年開始
相關文章
相關標籤/搜索