python wiki中文語料分詞

上篇將wiki中文語料已經下載下來(wiki中文文本語料下載並處理 ubuntu + python2.7),並且轉爲了txt格式,本篇對txt文件進行分詞,分詞後才能使用word2vector訓練詞向量 分詞python程序爲(使用jieba分詞) # -*- coding: utf-8 -*- #!/usr/bin/env python import sys reload(sys) sys.se
相關文章
相關標籤/搜索