Lucene-2.2.0 源代碼閱讀學習(6)

Lucene分析器的實現。 Lucene分詞器Tokenizer,它的繼承子類的實現。 Tokenizer類的繼承關係,如圖所示: ChineseTokenizer類實現中文分詞 中文分詞在Lucene中的處理很簡單,就是單個字分。它的實現類爲ChineseTokenizer,在包org.apache.lucene.analysis.cn中,源代碼如下: package org.apache.lu
相關文章
相關標籤/搜索