word2vec 原理

轉自:http://www.cnblogs.com/iloveai/p/word2vec.html SVD分解:低維詞向量的間接學習 既然基於co-occurrence矩陣得到的離散詞向量存在着高維和稀疏性的問題,一個自然而然的解決思路是對原始詞向量進行降維,從而得到一個稠密的連續詞向量。 第一個出場的對原始矩陣進行降維的方法是奇異值分解(SVD)。SVD的基本思想是,通過將原co-occurre
相關文章
相關標籤/搜索