中文分詞器

中文分詞器 使用因爲Elasticsearch中默認的標準分詞器分詞器對中文分詞不是很友好,會將中文詞語拆分成一個一箇中文的漢子。因此引入中文分詞器-es-ik插件 在下載使用插件時候 一定要注意 版本對應! github地址: https://github.com/medcl/elasticsearch-analysis-ik/releases/   這個插件裏面用到HttpClient 因爲要
相關文章
相關標籤/搜索