NLP | Word2Vec之基於Negative Sampling的 CBOW 和 skip-gram 模型

前面介紹了基於Hierarchical Softmax的 skip-gram 和 CBOW 模型,雖然我們使用霍夫曼樹代替傳統的神經網絡,可以提高模型訓練的效率。但是如果我們的訓練樣本里的中心詞 w w w是一個很生僻的詞,那麼就得在霍夫曼樹中辛苦的向下走很久了。能不能不用搞這麼複雜的一顆霍夫曼樹,將模型變的更加簡單呢? Negative Sampling就是這麼一種求解word2vec模型的方法
相關文章
相關標籤/搜索