ELMo算法

要講清楚這個算法我們要從 Word Embedding開始 引出問題: Word Embedding是任何NLP模型不可或缺的一部分,因爲它們賦予詞以含義,這一切都始於Word2Vec,它點燃了NLP世界的火花,其次是GloVe。(Word2vec,GloVe在另外的文章單獨介紹) Word2Vec表明,我們可以使用向量(數字列表)正確表示某個單詞, 方式是通過捕獲語義或含義之間相關的關係。 我們
相關文章
相關標籤/搜索