ElasticSearch學習(二)——ik分詞及查詢操作

IK分詞器插件 分詞:即把一段中文或者別的劃分成一個個的關鍵字,在搜索時將自己的信息進行分詞,會把數據庫中或者索引庫中的數據進行分詞,然後進行一個匹配操作,默認的中文分詞是將每個詞看成一個詞,如「李小狼」會被分爲「李」,「小」「狼」,這顯然是不符合要求的,我們需要安裝中文分詞器ik來解決這個問題。 IK提供了兩個分詞算法:ik_smart和ik_max_word,其中ik_smart爲最少切分,i
相關文章
相關標籤/搜索