博客園 首頁 新隨筆 聯繫 訂閱 管理 Word2Vec之Skip-Gram模型實現代碼詳解

在NLP領域,詞向量是一個非常基礎的知識點,計算機是不能識別文字,所以要讓計算機記住文字只能通過數字的形式,在最初所採用的是one-hot(獨熱)編碼,簡單回顧一下這種編碼方式 例如:我很討厭下雨 分詞之後:我  很  討厭  下雨 可知詞表大小爲4,採用one-hot編碼方式則爲 我:[1,0,0,0]    很:[0,1,0,0] 討厭:[0,0,1,0] 下雨:[0,0,0,1] 這種方式可
相關文章
相關標籤/搜索