NLP---Bert

簡介: BERT,全稱Bidirectional Encoder Representations from Transformers,是一個預訓練的語言模型,可以通過它得到文本表示,然後用於下游任務,比如文本分類,問答系統,情感分析等任務.BERT像是word2vec的加強版,同樣是預訓練得到詞級別或者句子級別的向量表示,word2vec是上下文無關的(Context-Free),而BERT是上下
本站公眾號
   歡迎關注本站公眾號,獲取更多信息