nltk

安裝語料庫 import nltk nltk.download() 分詞 英文分詞:nltk.word_tokenize() # 按照單詞進行分詞 中文分詞:jieba.cut() 詞性處理 stemming詞幹提取: 保留最長詞根 nltk庫中有多種函數實現: from nltk.stem.porter import PorterStemmer porter_stemmer = PorterSt
相關文章
相關標籤/搜索