首先須要導入兩個jar包(lucene-core-2.4.1.jar,je-analysis-1.5.1.jar,lucene-highlighter-2.4.1.jar),注意版本的兼容問題,這裏提供一個共享網盤的連接:java
連接:http://pan.baidu.com/s/1dFFf3A5 密碼:djez算法
//採用正向最大匹配的中文分詞算法,至關於分詞粒度等於0
MMAnalyzer analyzer = new MMAnalyzer();
//參數爲分詞粒度:當字數等於或超過該參數,且能成詞,該詞就被切分出來
MMAnalyzer analyzer = new MMAnalyzer(int wordLength);
//字符串切分,經常使用於客戶的關鍵字輸入
analyzer.segment(String text, String separator);
詞典維護API(靜態方法):
//增長一個新詞典,採用每行一個詞的讀取方式(注意:多線程狀態下此時的分詞效果將不可預料)
MMAnalyzer.addDictionary(Reader reader);
//增長一個新詞
MMAnalyzer.addWord(String newWord);
//刪除詞庫中的所有詞語(注意:很是危險的操做,在沒有加載新的詞庫前全部的分詞都將失效)
MMAnalyzer.clear();
//詞庫中是否包含該詞
MMAnalyzer.contains(String word);
//從詞庫中移除該詞
MMAnalyzer.removeWord(String word);
//當前詞庫中包含的詞語總數
MMAnalyzer.size();apache
三、使用說明多線程
符串切分 | |
package demo.analysis; | |
import java.io.IOException; | |
import jeasy.analysis.MMAnalyzer; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String text = "據路透社報道,印度尼西亞社會事務部一官員星期二(29日)表示," | |
+ "日惹市附近當地時間27日晨5時53分發生的里氏6.2級地震已經形成至少5427人死亡," | |
+ "20000餘人受傷,近20萬人無家可歸。"; | |
MMAnalyzer analyzer = new MMAnalyzer(); | |
try | |
{ | |
System.out.println(analyzer.segment(text, " | ")); | |
} | |
catch (IOException e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
據 | 路透社 | 報道 | 印度尼西亞 | 社會 | 事務 | 部 | 官員 | 星期二 | 29日 | 表示 | 日惹 | 市 |spa 附近 | 當地時間 | 27日 | 晨 | 5時 | 53分 | 發生 | 里氏 | 6.2級 | 地震 | 已經 | 形成 | 至少 |線程 5427人 | 死亡 | 20000 | 餘人 | 受傷 | 近 | 20萬人 | 無家可歸 |token |
|
Lucene搜索 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "據路透社報道,印度尼西亞社會事務部一官員星期二(29日)表示," | |
+ "日惹市附近當地時間27日晨5時53分發生的里氏6.2級地震已經形成至少5427人死亡," | |
+ "20000餘人受傷,近20萬人無家可歸。"; //檢索內容 | |
//採用正向最大匹配的中文分詞算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
Document hitDoc = hits.doc(i); | |
System.out.println("內容:" + hitDoc.get(fieldName)); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} | |
生成效果: | |
命中:1 | |
內容:據路透社報道,印度尼西亞社會事務部一官員星期二(29日)表示,日惹市附近當地時間27日晨5時53分發生的 里氏6.2級地震已經形成至少5427人死亡,20000餘人受傷,近20萬人無家可歸。 |
|
搜索詞加亮 | |
package demo.analysis; | |
import jeasy.analysis.MMAnalyzer; | |
import org.apache.lucene.analysis.Analyzer; | |
import org.apache.lucene.analysis.TokenStream; | |
import org.apache.lucene.document.Document; | |
import org.apache.lucene.document.Field; | |
import org.apache.lucene.index.IndexReader; | |
import org.apache.lucene.index.IndexWriter; | |
import org.apache.lucene.index.TermPositionVector; | |
import org.apache.lucene.queryParser.QueryParser; | |
import org.apache.lucene.search.Hits; | |
import org.apache.lucene.search.IndexSearcher; | |
import org.apache.lucene.search.Query; | |
import org.apache.lucene.search.highlight.Highlighter; | |
import org.apache.lucene.search.highlight.QueryScorer; | |
import org.apache.lucene.search.highlight.TokenSources; | |
import org.apache.lucene.store.Directory; | |
import org.apache.lucene.store.RAMDirectory; | |
public class Segment | |
{ | |
public static void main(String[] args) | |
{ | |
String fieldName = "text"; | |
String text = "據路透社報道,印度尼西亞社會事務部一官員星期二(29日)表示," | |
+ "日惹市附近當地時間27日晨5時53分發生的里氏6.2級地震已經形成至少5427人死亡," | |
+ "20000餘人受傷,近20萬人無家可歸。"; //檢索內容 | |
//採用正向最大匹配的中文分詞算法 | |
Analyzer analyzer = new MMAnalyzer(); | |
Directory directory = new RAMDirectory(); | |
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); | |
try | |
{ | |
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); | |
iwriter.setMaxFieldLength(25000); | |
Document doc = new Document(); | |
doc.add(new Field(fieldName, text, Field.Store.YES, | |
Field.Index.TOKENIZED, | |
Field.TermVector.WITH_POSITIONS_OFFSETS)); | |
iwriter.addDocument(doc); | |
iwriter.close(); | |
IndexSearcher isearcher = new IndexSearcher(directory); | |
QueryParser parser = new QueryParser(fieldName, analyzer); | |
Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞 | |
Hits hits = isearcher.search(query); | |
System.out.println("命中:" + hits.length()); | |
Highlighter highlighter = new Highlighter(new QueryScorer(query)); | |
for (int i = 0; i < hits.length(); i++) | |
{ | |
text = hits.doc(i).get(fieldName); | |
TermPositionVector tpv = (TermPositionVector) IndexReader.open( | |
directory).getTermFreqVector(hits.id(i), fieldName); | |
TokenStream tokenStream = TokenSources.getTokenStream(tpv); | |
String result = highlighter.getBestFragments(tokenStream, text, 3, "..."); | |
System.out.println("內容:" + result); | |
} | |
isearcher.close(); | |
directory.close(); | |
} | |
catch (Exception e) | |
{ | |
e.printStackTrace(); | |
} | |
} | |
} |