基於典型相關分析的詞向量

本文首發於雷鋒網css 前言 在NLP領域中,爲了能表示人類的語言符號,通常會把這些符號轉成一種數學向量形式以方便處理,咱們把語言單詞嵌入到向量空間中就叫詞嵌入(word embedding)。web 好比有比較流行的谷歌開源的 word2vec ,它能生成詞向量,經過該詞向量在必定程度上還能夠用來度量詞與詞之間的類似性。word2vec採用的模型包含了連續詞袋模型(CBOW)和Skip-Gram
相關文章
相關標籤/搜索