詞向量的變化

word2vector word2vec來源於2013年的論文《Efficient Estimation of Word Representation in Vector Space》,它的核心思想是通過詞的上下文得到詞的向量化表示,有兩種訓練方式:CBOW(通過附近詞預測中心詞)、Skip-gram(通過中心詞預測附近的詞) 前世今生: NGRAM:將詞當成一個離散的單元(因此存在一定的侷限性,
相關文章
相關標籤/搜索