elasticsearch 第七章:分詞器 ,過濾器,分析器

1.tokenizer:分詞器 索引 (1)肯定詞語被拆分的規則 (2)舉例:ik_max_word ,ik_smart,edge_ngram(提示詞,拼音搜索)token 2.filter:過濾器   (1)消耗輸入流,產生輸出流(牛:吃的是草,產出的是奶)搜索 (2)舉例:"LowerCaseFilter"://轉小寫,"pinyin_simple_filter"://簡拼過濾器,"pinyi
相關文章
相關標籤/搜索