NLP第2課:中文分詞利器 jieba 和 HanLP

前言 從本文開始,我們進入實戰部分。首先,我們按照中文自然語言處理流程的第一步獲取語料,然後重點進行中文分詞的學習。中文分詞有很多種,常見的比如有中科院計算所 NLPIR、哈工大 LTP、清華大學 THULAC 、斯坦福分詞器、Hanlp 分詞器、jieba 分詞、IKAnalyzer 等。這裏針對 jieba 和 HanLP 分別介紹不同場景下的中文分詞應用。 jieba 分詞 jieba 安裝
相關文章
相關標籤/搜索