120G+訓練好的word2vec模型(中文詞向量)

從網上了解到,很多人缺少大語料訓練的word2vec模型,在此分享下使用120G+語料訓練好的word2vec模型。 訓練語料: 百度百科800w+條,20G+ 搜狐新聞400w+條,12G+(數據下載鏈接見其它博文) 小說:90G左右 模型參數: window=5 min_count=5 size=64 ps:其它參數見gensim庫,執行代碼爲:Word2Vec(sentence, windo
相關文章
相關標籤/搜索