stanford-segmenter的使用

對於中文的天然語言處理任務來講,分詞彷佛已是第一步了,由於深度學習想要使用詞向量的話,分詞基本是第一步,除非咱們基於單箇中文單詞,固然這看具體的模型了。 因此咱們須要一個好的分詞工具,stanford-segmenter就是一個不錯的分詞工具,固然也有不少優秀的其餘分詞工具,具體用哪一個看我的愛好,本文將介紹stanford-segmenter的使用。 我使用的工具包是「stanford-segm
相關文章
相關標籤/搜索