【深度學習Deep Learning系列】word2vec和doc2vec

1     word2vec結構 LDA計算複雜,不太適應大數據量計算。word2vec將詞投射到向量上,使得詞之間的遠近程度易於計算,很容易表示同義詞、近義詞。php 1.1 skip-gram 以1個詞爲輸入,經過D維投射層,以及分類器(softmax或log-linear),讓該詞分到先後若干個詞之間。先後詞個數越多,模型的準確性越高,但計算量也越大。具備相同上下文的兩個詞,認爲這兩個詞類似
相關文章
相關標籤/搜索