大白話講解word2vec到底在作些什麼

詞向量 word2vec也叫word embeddings,中文名「詞向量」,做用就是將天然語言中的字詞轉爲計算機能夠理解的稠密向量(Dense Vector)。在word2vec出現以前,天然語言處理常常把字詞轉爲離散的單獨的符號,也就是One-Hot Encoder。css 杭州 [0,0,0,0,0,0,0,1,0,……,0,0,0,0,0,0,0] 上海 [0,0,0,0,1,0,0,0,
相關文章
相關標籤/搜索