ES中的分析器和IK分詞器插件

一些概念 Token(詞元) 全文搜索引擎會用某種算法對要建索引的文檔進行分析, 從文檔中提取出若干Tokenizer(分詞器)html Tokenizer(分詞器) 這些算法叫作Tokenizer(分詞器)java Token Filter(詞元處理器) 這些Token會被進一步處理, 好比轉成小寫等, 這些處理算法被稱爲TokenFilter(詞元處理器)git Term(詞) 被處理後的結果
相關文章
相關標籤/搜索