R語言自然語言處理:中文分詞

作者:黃天元,復旦大學博士在讀,目前研究涉及文本挖掘、社交網絡分析和機器學習等。希望與大家分享學習經驗,推廣並加深R語言在業界的應用。 郵箱:[email protected] R有很多自然語言處理的包,但是大多是針對英文的。中文來做NLP的包,經過長期探索,認爲目前要做中文的NLP,首推jiebaR包。本文主要講如何對中文進行分詞,分詞的概念就是把一個句子分成詞語。如果在英文中,詞語之間都有空格
相關文章
相關標籤/搜索