NLP pretrained model

最近聽了NLP pretrained model的報告,感受挺有意思的。此處大量參考從Word Embedding到Bert模型—天然語言處理中的預訓練技術發展史web Word Embedding 詞向量在天然語言處理中有着重要的角色,它將抽象的詞語之間的語義關係量化成向量形式。有了良好的詞向量,咱們就能夠作更多的工做。目前構建詞向量的方式大致上分紅兩大類:網絡 統計方法:經過統計詞語之間的關係
相關文章
相關標籤/搜索