NLP天然語言處理中英文分詞工具集錦與基本使用介紹

1、中文分詞工具工具

(1)Jiebaspa

(2)snowNLP分詞工具blog

(3)thulac分詞工具token

(4)pynlpir 分詞工具it

(5)StanfordCoreNLP分詞工具import

1.from stanfordcorenlp import StanfordCoreNLPim

2.with StanfordCoreNLP(r'E:\Users\Eternal Sun\PycharmProjects\1\venv\Lib\stanford-corenlp-full-2018-10-05', lang='zh') as nlp:d3

3.    print("stanfordcorenlp分詞:\n",nlp.word_tokenize(Chinese))db

(6)Hanlp分詞工具word

分詞結果以下:

2、英文分詞工具

 

1. NLTK:

兩者之間的區別在於,若是先分句再分詞,那麼將保留句子的獨立性,即生成結果是一個二維列表,而對於直接分詞來講,生成的是一個直接的一維列表,結果以下:

2. SpaCy:

 

3. StanfordCoreNLP:

分詞結果

相關文章
相關標籤/搜索