使用NLTK時出現Resource [93mpunkt[0m not found.

今天剛學習NLP時,在使用NLTK的 import nltk>>> text = "welcome reader.I hope you find it interesting.please do reply." >>> from nltk.tokenize import sent_tokenize >>> sent_tokenize(text) 進行分詞的時候出現如下的錯誤: 原因在於缺少一個模塊
相關文章
相關標籤/搜索