BERT中文翻譯

BERT:語言理解的深層雙向transformer的預訓練 原文鏈接: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 目錄 BERT:語言理解的深層雙向transformer的預訓練 1.介紹 2.相關工作 2.1 基於無監督特徵的方法 2.2 非監督微調方法 2.3 從監督數據中轉
相關文章
相關標籤/搜索