word2vec原理(一) CBOW與Skip-Gram模型基礎

1. 詞向量基礎     用詞向量來表示詞並不是word2vec的首創,在很久之前就出現了。最早的詞向量是很冗長的,它使用是詞向量維度大小爲整個詞彙表的大小,對於每個具體的詞彙表中的詞,將對應的位置置爲1。比如我們有下面的5個詞組成的詞彙表,詞"Queen"的序號爲2, 那麼它的詞向量就是(0,1,0,0,0)(0,1,0,0,0)。同樣的道理,詞"Woman"的詞向量就是(0,0,0,1,0)(
相關文章
相關標籤/搜索