【簡單理解】BERT

【簡單理解】BERT 原文鏈接:BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding 1.簡單介紹BERT 一個訓練好的【雙向Transformer編碼器棧】。可以訓練出具有上下文關係的【語境化詞向量】,是一個【句子級的語言模型】。 作爲一種pre-train方法,可以直接獲得一整個句子的唯一
相關文章
相關標籤/搜索