nltk包沒有發現punkt資源問題

python調用nltk包作分詞處理 筆者在使用python作文本分類時 import nltk.tokenize as tk 作分詞處理時發現如下錯誤: 而按照其提示所操做: 後面在網上各類搜尋終於成功解決,步驟以下:python 1.自行在網上下載好nltk_data包 2.在C盤建立nltk_data文件夾 將下載的nltk_data.zip文件解壓到新建的nltk_data文件夾中(本人用
相關文章
相關標籤/搜索