自然語言處理(NLP): 14 BERT上下文表示和其他預訓練語言模型

預訓練語言模型,稱爲BERT,是Bidirectional Encoder Representations from Transformers 的縮寫。和ELMo或者OpenAI-GPT不同,BERT的預訓練是同時考慮左邊和右邊上下文的雙向表示。將預訓練好的BERT表示應用到各個任務時只需要微調最後一層就能達到最佳效果。 BERT的原理非常簡單但是應用效果非常好。在十一個NLP任務上達到新的最佳效
相關文章
相關標籤/搜索