BERT

利用了真雙向的Transformer 爲了利用雙向信息,改進了普通語言模型成爲完形填空式的Mask-LM(Mask-Language Model) 利用Next Sentence Prediction任務學習句子級別信息 進一步完善和擴展了GPT中設計的通用任務框架,使得BERT能夠支持包括:句子對分類任務、單句子分類任務、閱讀理解任務和序列標註任務 Transformer Encoder因爲有S
相關文章
相關標籤/搜索