Language Model

Word2vec word2vec有兩種訓練方法 CBOW:在句子序列中,從當前次的上下文去預測當前詞 skip-gram:與CBOW相反,輸入某個詞,預測當前詞的上下文 NNLM的訓練:輸入一個單詞的上文,與預測這個單詞 word Embedding 存在的問題:多義詞問題 ELMO: ELMO對這一問題有了好的解決: 使用預先訓練的語言模型學習好單詞的word Embedding,此時多義詞無
相關文章
相關標籤/搜索