word2vec怎麼得到詞向量?

word2vec有兩種模型,CBOW和Skip-gram;前者是通過context(w)[即詞w的上下文]的詞向量獲得w最可能的詞(w爲各個詞的概率,就能得到最可能的詞),後者是相反的,通過w獲得上下文context(w)。 簡單理解即爲如下兩幅圖[1]: 對於CBOW模型,輸入的即爲詞向量,但是詞向量怎麼來的? 實際上,前面還有一層,如下圖[2]: 前一層輸入的是每個單詞的one-hot編碼,然
相關文章
相關標籤/搜索