word2vec 的CBOW,多層softmax,負採樣。

NNLM的原理基於N-1個詞來預測第N個詞,而CBOW是希望用前後N個詞來預測中間詞,這是CBOW與NNLM的本質區別。 NNLM中存在投影層,將ONE-HOT編碼與詞庫矩陣C進行運算投射,從詞庫矩陣取出一列。同時對每個詞取出的每個列,進行一個concat拼接。 而由於當詞庫非常巨大時,這個計算是非常耗費時間的。因此,就出現了CBOW CBOW CBOW將矩陣C直接捨棄,直接把這樣一句話中的每個詞
相關文章
相關標籤/搜索