nltk包沒有發現punkt資源問題

python調用nltk包做分詞處理 筆者在使用python做文本分類時 import nltk.tokenize as tk 做分詞處理時發現以下錯誤: 而按照其提示所操作: 後面在網上各種搜尋終於成功解決,步驟如下: 1.下載nltk_data包 百度鏈接:https://pan.baidu.com/s/14WikrjpFE8z9SBvwgi8tLw 提取碼:請留言,讓我知道下有小夥伴在看,我
相關文章
相關標籤/搜索