BERT基礎(三):BERT與Word2Vec、ELMO的比較與所做改進分析

參考文章: Bert淺析 從Word Embedding到Bert模型——自然語言處理預訓練技術發展史 關於self-attention與transformer參考之前的博文 BERT基礎(二):Transformer 詳解 BERT基礎(一):self_attention自注意力詳解 簡單來說,詞向量模型是一個工具,可以把文字(詞語/字符)轉換成向量,然後我們使用這些向量來完成各種 NLP 任務
相關文章
相關標籤/搜索