ubuntu 14.04中文分詞 結巴分詞

在天然語言處理中,很常見的是要對文本數據進行分詞處理。博主是代碼小白,目前只是用python做爲數據預處理的工具,而按照結巴中文分詞的導語:作最好的python中文分詞組件「jieba」。於是博主也就在本人的機子上安裝了 ubuntu+python2.7+jieba組成的分詞組合。python

 關於安裝的博客已經不少了,我把安裝好後我本身寫的中文分詞代碼貼出來。ubuntu

通常狀況下,作中文分詞以後就會去停用詞,因此我直接寫到了同一個py文件中。app

文件的第五行:自定義的用戶詞典位置python2.7

文件的第十行:停用詞詞典的位置,本身也能夠添加和修改工具

同理,第11和第18行分別是讀取和保存文件。spa

 

 1 #coding=utf-8  
 2 import jieba  
 3 import sys 
 4 sys.path.append("../") 
 5 jieba.load_userdict("/。。。/user_dict.txt")
 6 import jieba.posseg as pseg 
 7 import time  
 8 t1=time.time() 
 9 
10 stopwords = {}.fromkeys([ line.rstrip() for line in open('/。。。。。/stopwords.txt') ])
11 f=open("/。。。/test.txt","r") #讀取文本  
12 txtlist=f.read().decode('utf-8')
13 words=jieba.cut(txtlist)  
14     for w in words: 
15         seg=str(w.word.encode('utf-8'))
16         if seg not in stopwords:
17             result+=str(seg)+" "#+"/"+str(w.flag)+" " #去停用詞  
18             f=open("/..../result.txt","a")  #將結果保存到另外一個文檔中  
19             f.write(result)
20     
21 f.close()  
22 t2=time.time() 
23 print("分詞及詞性標註完成,耗時:"+str(t2-t1)+"秒。") #反饋結果
相關文章
相關標籤/搜索