(九)再談embedding——bert詳解(實戰)上

    寫這篇文章的時候,跳過了兩個專題,由於BERT的確太火了,也比較實用吧,就拿最近的閱讀理解比賽來講,幾乎霸榜了,好比下面這個圖:網絡         之因此NLP這麼多任務都會被刷新紀錄,是由於BERT作的工做就是用來學習語言特徵表達的,因此幾乎只要是涉及到詞向量的NLP任務均可以用到bert,而絕大部分NLP任務都會用到詞向量,因此這就是BERT火的緣由,對於新手來講,BERT的使用門檻
相關文章
相關標籤/搜索