一、案例分析:什麼是全文檢索,如何實現全文檢索java
二、Lucene實現全文檢索的流程web
a) 建立索引算法
b) 查詢索引sql
三、配置開發環境數據庫
四、建立索引庫apache
五、查詢索引庫windows
六、分析器的分析過程網絡
a) 測試分析器的分詞效果數據結構
b) 第三方中文分析器app
七、索引庫的維護
a) 添加文檔
b) 刪除文檔
c) 修改文檔
8、Lucene的高級查詢Lucene的查詢
a) 使用Query的子類查詢
b) 使用QueryParser
實現一個文件的搜索功能,經過關鍵字搜索文件,凡是文件名或文件內容包括關鍵字的文件都須要找出來。還能夠根據中文詞語進行查詢,而且須要支持多個條件查詢。
本案例中的原始內容就是磁盤上的文件,以下圖:
數據庫中的搜索很容易實現,一般都是使用sql語句進行查詢,並且能很快的獲得查詢結果。
爲何數據庫搜索很容易?
由於數據庫中的數據存儲是有規律的,有行有列並且數據格式、數據長度都是固定的。
咱們生活中的數據整體分爲兩種:結構化數據和非結構化數據。
結構化數據:指具備固定格式或有限長度的數據,如數據庫,元數據等。
非結構化數據:指不定長或無固定格式的數據,如郵件,word文檔等磁盤上的文件
(1)順序掃描法(Serial Scanning)
所謂順序掃描,好比要找內容包含某一個字符串的文件,就是一個文檔一個文檔的看,對於每個文檔,從頭看到尾,若是此文檔包含此字符串,則此文檔爲咱們要找的文件,接着看下一個文件,直到掃描完全部的文件。如利用windows的搜索也能夠搜索文件內容,只是至關的慢。
(2)全文檢索(Full-text Search)
將非結構化數據中的一部分信息提取出來,從新組織,使其變得有必定結構,而後對此有必定結構的數據進行搜索,從而達到搜索相對較快的目的。這部分從非結構化數據中提取出的而後從新組織的信息,咱們稱之索引。
例如:字典。字典的拼音表和部首檢字表就至關於字典的索引,對每個字的解釋是非結構化的,若是字典沒有音節表和部首檢字表,在茫茫辭海中找一個字只能順序掃描。然而字的某些信息能夠提取出來進行結構化處理,好比讀音,就比較結構化,分聲母和韻母,分別只有幾種能夠一一列舉,因而將讀音拿出來按必定的順序排列,每一項讀音都指向此字的詳細解釋的頁數。咱們搜索時按結構化的拼音搜到讀音,而後按其指向的頁數,即可找到咱們的非結構化數據——也即對字的解釋。
這種先創建索引,再對索引進行搜索的過程就叫全文檢索(Full-text Search)。
雖然建立索引的過程也是很是耗時的,可是索引一旦建立就能夠屢次使用,全文檢索主要處理的是查詢,因此耗時間建立索引是值得的。
可使用Lucene實現全文檢索。Lucene是apache下的一個開放源代碼的全文檢索引擎工具包。提供了完整的查詢引擎和索引引擎,部分文本分析引擎。Lucene的目的是爲軟件開發人員提供一個簡單易用的工具包,以方便的在目標系統中實現全文檢索的功能。
對於數據量大、數據結構不固定的數據可採用全文檢索方式搜索,好比百度、Google等搜索引擎、論壇站內搜索、電商網站站內搜索等。
1、綠色表示索引過程,對要搜索的原始內容進行索引構建一個索引庫,索引過程包括:
肯定原始內容即要搜索的內容à採集文檔à建立文檔à分析文檔à索引文檔
2、紅色表示搜索過程,從索引庫中搜索內容,搜索過程包括:
用戶經過搜索界面à建立查詢à執行搜索,從索引庫搜索à渲染搜索結果
對文檔索引的過程,將用戶要搜索的文檔內容進行索引,索引存儲在索引庫(index)中。
這裏咱們要搜索的文檔是磁盤上的文本文件,根據案例描述:凡是文件名或文件內容包括關鍵字的文件都要找出來,這裏要對文件名和文件內容建立索引。
原始文檔是指要索引和搜索的內容。原始內容包括互聯網上的網頁、數據庫中的數據、磁盤上的文件等。
本案例中的原始內容就是磁盤上的文件,以下圖:
從互聯網上、數據庫、文件系統中等獲取須要搜索的原始信息,這個過程就是信息採集,信息採集的目的是爲了對原始內容進行索引。
在Internet上採集信息的軟件一般稱爲爬蟲或蜘蛛,也稱爲網絡機器人,爬蟲訪問互聯網上的每個網頁,將獲取到的網頁內容存儲起來。
Lucene不提供信息採集的類庫,須要本身編寫一個爬蟲程序實現信息採集,也能夠經過一些開源軟件實現信息採集,以下:
Nutch(http://lucene.apache.org/nutch), Nutch是apache的一個子項目,包括大規模爬蟲工具,可以抓取和分辨web網站數據。
jsoup(http://jsoup.org/ ),jsoup 是一款Java 的HTML解析器,可直接解析某個URL地址、HTML文本內容。它提供了一套很是省力的API,可經過DOM,CSS以及相似於jQuery的操做方法來取出和操做數據。
heritrix(http://sourceforge.net/projects/archive-crawler/files/),Heritrix 是一個由 java 開發的、開源的網絡爬蟲,用戶可使用它來從網上抓取想要的資源。其最出色之處在於它良好的可擴展性,方便用戶實現本身的抓取邏輯。
本案例咱們要獲取磁盤上文件的內容,能夠經過文件流來讀取文本文件的內容,對於pdf、doc、xls等文件可經過第三方提供的解析工具讀取文件內容,好比Apache POI讀取doc和xls的文件內容。
獲取原始內容的目的是爲了索引,在索引前須要將原始內容建立成文檔(Document),文檔中包括一個一個的域(Field),域中存儲內容。
這裏咱們能夠將磁盤上的一個文件當成一個document,Document中包括一些Field(file_name文件名稱、file_path文件路徑、file_size文件大小、file_content文件內容),以下圖:
注意:每一個Document能夠有多個Field,不一樣的Document能夠有不一樣的Field,同一個Document能夠有相同的Field(域名和域值都相同)
每一個文檔都有一個惟一的編號,就是文檔id。
將原始內容建立爲包含域(Field)的文檔(document),須要再對域中的內容進行分析,分析的過程是通過對原始文檔提取單詞、將字母轉爲小寫、去除標點符號、去除停用詞等過程生成最終的語彙單元,能夠將語彙單元理解爲一個一個的單詞。
好比下邊的文檔通過分析以下:
原文檔內容:
Lucene is a Java full-text search engine. Lucene is not a complete
application, but rather a code library and API that can easily be used
to add search capabilities to applications.
分析後獲得的語彙單元:
lucene、java、full、search、engine。。。。
每一個單詞叫作一個Term,不一樣的域中拆分出來的相同的單詞是不一樣的term。term中包含兩部分一部分是文檔的域名,另外一部分是單詞的內容。
例如:文件名中包含apache和文件內容中包含的apache是不一樣的term。
對全部文檔分析得出的語彙單元進行索引,索引的目的是爲了搜索,最終要實現只搜索被索引的語彙單元從而找到Document(文檔)。
一個索引可能對應多個文檔
注意:建立索引是對語彙單元索引,經過詞語找文檔,這種索引的結構叫倒排索引結構。
傳統方法是根據文件找到該文件的內容,在文件內容中匹配搜索關鍵字,這種方法是順序掃描方法,數據量大、搜索慢。
倒排索引結構是根據內容(詞語)找文檔,以下圖:
倒排索引結構也叫反向索引結構,包括索引和文檔兩部分,索引即詞彙表,它的規模較小,而文檔集合較大。
查詢索引也是搜索的過程。搜索就是用戶輸入關鍵字,從索引(index)中進行搜索的過程。根據關鍵字搜索索引,根據索引找到對應的文檔,從而找到要搜索的內容(這裏指磁盤上的文件)。
全文檢索系統提供用戶搜索的界面供用戶提交搜索的關鍵字,搜索完成展現搜索結果。
好比:
Lucene不提供製做用戶搜索界面的功能,須要根據本身的需求開發搜索界面。
用戶輸入查詢關鍵字執行搜索以前須要先構建一個查詢對象,查詢對象中能夠指定查詢要搜索的Field文檔域、查詢關鍵字等,查詢對象會生成具體的查詢語法,
例如:
語法 「fileName:lucene」表示要搜索Field域的內容爲「lucene」的文檔
搜索索引過程:
根據查詢語法在倒排索引詞典表中分別找出對應搜索詞的索引,從而找到索引所連接的文檔鏈表。
好比搜索語法爲「fileName:lucene」表示搜索出fileName域中包含Lucene的文檔。
搜索過程就是在索引上查找域爲fileName,而且關鍵字爲Lucene的term,並根據term找到文檔id列表。
以一個友好的界面將查詢結果展現給用戶,用戶根據搜索結果找本身想要的信息,爲了幫助用戶很快找到本身的結果,提供了不少展現的效果,好比搜索結果中將關鍵字高亮顯示,百度提供的快照等。
Lucene是開發全文檢索功能的工具包,從官方網站下載Lucene4.10.3,並解壓。
官方網站:http://lucene.apache.org/
版本:lucene4.10.3
Jdk要求:1.7以上
IDE:Eclipse
Lucene包:
lucene-core-4.10.3.jar
lucene-analyzers-common-4.10.3.jar
lucene-queryparser-4.10.3.jar
其它包:
commons-io-2.4.jar
junit-4.9.jar
第一步:建立一個java工程,新建一個文件夾lib,並導入jar包,添加到工做路徑去。
第二步:新建一個測試類,添加測試方法
第三步:建立一個indexwriter對象。
1)指定索引庫的存放位置Directory對象
2)指定一個分析器,對文檔內容進行分析。
第四步:建立document對象。
第五步:建立field對象,將field添加到document對象中。
第六步:使用indexwriter對象將document對象寫入索引庫,此過程進行索引建立。並將索引和document對象寫入索引庫。
第七步:關閉IndexWriter對象。
是否分析:是否對域的內容進行分詞處理。前提是咱們要對域的內容進行查詢。
是否索引:將Field分析後的詞或整個Field值進行索引,只有索引方可搜索到。
好比:商品名稱、商品簡介分析後進行索引,訂單號、身份證號不用分析但也要索引,這些未來都要做爲查詢條件。
是否存儲:將Field值存儲在文檔中,存儲在文檔中的Field才能夠從Document中獲取
好比:商品名稱、訂單號,凡是未來要從Document中獲取的Field都要存儲。
是否存儲的標準:是否要將內容展現給用戶
Field類 |
數據類型 |
Analyzed 是否分析 |
Indexed 是否索引 |
Stored 是否存儲 |
說明 |
StringField(FieldName, FieldValue,Store.YES)) |
字符串 |
N |
Y |
Y或N |
這個Field用來構建一個字符串Field,可是不會進行分析,會將整個串存儲在索引中,好比(訂單號,姓名等) 是否存儲在文檔中用Store.YES或Store.NO決定 |
LongField(FieldName, FieldValue,Store.YES) |
Long型 |
Y |
Y |
Y或N |
這個Field用來構建一個Long數字型Field,進行分析和索引,好比(價格) 是否存儲在文檔中用Store.YES或Store.NO決定 |
StoredField(FieldName, FieldValue) |
重載方法,支持多種類型 |
N |
N |
Y |
這個Field用來構建不一樣類型Field 不分析,不索引,但要Field存儲在文檔中 |
TextField(FieldName, FieldValue, Store.NO) 或 TextField(FieldName, reader)
|
字符串 或 流 |
Y |
Y |
Y或N |
若是是一個Reader, lucene猜想內容比較多,會採用Unstored的策略. |
import java.io.File; import java.io.IOException; import org.apache.commons.io.FileUtils; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.document.Field.Store; import org.apache.lucene.document.LongField; import org.apache.lucene.document.StoredField; import org.apache.lucene.document.TextField; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.junit.Test; public class FirstLucene { @Test public void testIndex() throws Exception{ //建立一個indexwriter對象 Directory directory=FSDirectory.open(new File("F:\\time"));//索引庫 Analyzer analyzer=new StandardAnalyzer();//官方分析器 IndexWriterConfig config=new IndexWriterConfig(Version.LATEST, analyzer); IndexWriter iw=new IndexWriter(directory, config); //建立field對象,並添加到docement對象中 File f=new File("F:\\source"); File[] listFiles = f.listFiles(); for (File file : listFiles) { //建立docement對象 Document document=new Document(); String file_name=file.getName(); Field fileNameField=new TextField("fileName",file_name,Store.YES); long file_size=FileUtils.sizeOf(file); Field fileSizeField=new LongField("fileSize",file_size, Store.YES); String file_path=file.getPath(); Field filePathField=new StoredField("filePath",file_path); String file_content=FileUtils.readFileToString(file); Field fileContentField=new TextField("fileContent",file_content,Store.YES); document.add(fileNameField); document.add(fileSizeField); document.add(filePathField); document.add(fileContentField); //使用indexwriter對象將document對象寫入索引庫 iw.addDocument(document); } //關閉IndexWriter對象 iw.close(); } }
啓動後,填入咱們的索引路徑便可
第一步:建立一個Directory對象,也就是索引庫存放的位置。
第二步:建立一個indexReader對象,須要指定Directory對象。
第三步:建立一個indexsearcher對象,須要指定IndexReader對象
第四步:建立一個TermQuery對象,指定查詢的域和查詢的關鍵詞。
第五步:執行查詢。
第六步:返回查詢結果。遍歷查詢結果並輸出。
第七步:關閉IndexReader對象
方法 |
說明 |
indexSearcher.search(query, n) |
根據Query搜索,返回評分最高的n條記錄 |
indexSearcher.search(query, filter, n) |
根據Query搜索,添加過濾策略,返回評分最高的n條記錄 |
indexSearcher.search(query, n, sort) |
根據Query搜索,添加排序策略,返回評分最高的n條記錄 |
indexSearcher.search(booleanQuery, filter, n, sort) |
根據Query搜索,添加過濾策略,添加排序策略,返回評分最高的n條記錄 |
//搜索索引 @Test public void testSearch() throws Exception{ //建立一個Directory對象,也就是索引庫存放的位置。 Directory directory=FSDirectory.open(new File("F:\\time")); //建立一個indexReader對象,須要指定Directory對象。 IndexReader ir=DirectoryReader.open(directory); //建立一個indexsearcher對象,須要指定IndexReader對象 IndexSearcher indexsearcher=new IndexSearcher(ir); //建立一個TermQuery對象,指定查詢的域和查詢的關鍵詞。 Query query=new TermQuery(new Term("fileName","notice.txt")); //執行查詢。 TopDocs topDocs = indexsearcher.search(query, 2); //返回查詢結果。遍歷查詢結果並輸出。 ScoreDoc[] scoreDocs = topDocs.scoreDocs;//文檔id for (ScoreDoc scoreDoc : scoreDocs) { int doc = scoreDoc.doc; Document document = indexsearcher.doc(doc);//獲取文檔 String fileName = document.get("fileName"); System.out.println(fileName); String fileContent = document.get("fileContent"); System.out.println(fileContent); String fileSize= document.get("fileSize"); System.out.println(fileSize); String filePath = document.get("filePath"); System.out.println(filePath); System.out.println("-----------------------------"); } //關閉IndexReader對象 ir.close(); }
以下圖是語彙單元的生成過程:
從一個Reader字符流開始,建立一個基於Reader的Tokenizer分詞器,通過三個TokenFilter生成語彙單元Tokens。
要看分析器的分析效果,只須要看Tokenstream中的內容就能夠了。每一個分析器都有一個方法tokenStream,返回一個tokenStream對象。
l StandardAnalyzer:
單字分詞:就是按照中文一個字一個字地進行分詞。如:「我愛中國」,
效果:「我」、「愛」、「中」、「國」。
l CJKAnalyzer
二分法分詞:按兩個字進行切分。如:「我是中國人」,效果:「我是」、「是中」、「中國」「國人」。
上邊兩個分詞器沒法知足需求。
l SmartChineseAnalyzer
對中文支持較好,但擴展性差,擴展詞庫,禁用詞庫和同義詞庫等很差處理
使用方法:
第一步:把jar包添加到工程中
IKAnalyzer2012FF_u1.jar
第二步:把配置文件和擴展詞典和停用詞詞典添加到classpath下
@Test public void testTokenStream() throws Exception { // 建立一個標準分析器對象 Analyzer analyzer = new IKAnalyzer(); // 得到tokenStream對象 // 第一個參數:域名,能夠隨便給一個 // 第二個參數:要分析的文本內容 TokenStream tokenStream = analyzer.tokenStream("test","高富帥能夠用二維表結構來邏輯表達實現的數據"); // 添加一個引用,能夠得到每一個關鍵詞 CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class); // 添加一個偏移量的引用,記錄了關鍵詞的開始位置以及結束位置 OffsetAttribute offsetAttribute = tokenStream.addAttribute(OffsetAttribute.class); // 將指針調整到列表的頭部 tokenStream.reset(); // 遍歷關鍵詞列表,經過incrementToken方法判斷列表是否結束 while (tokenStream.incrementToken()) { // 關鍵詞的起始位置 System.out.println("start->" + offsetAttribute.startOffset()); // 取關鍵詞 System.out.println(charTermAttribute); // 結束位置 System.out.println("end->" + offsetAttribute.endOffset()); } tokenStream.close(); }
ext.dic裏面保留要的字段
stopword.dic保留不要的字段
輸入關鍵字進行搜索,當須要讓該關鍵字與文檔域內容所包含的詞進行匹配時須要對文檔域內容進行分析,須要通過Analyzer分析器處理生成語彙單元(Token)。分析器分析的對象是文檔中的Field域。當Field的屬性tokenized(是否分詞)爲true時會對Field值進行分析,以下圖:
對於一些Field能夠不用分析:
1、不做爲查詢條件的內容,好比文件路徑
2、不是匹配內容中的詞而匹配Field的總體內容,好比訂單號、身份證號等。
注意:搜索使用的分析器要和索引使用的分析器一致。
新建一個class,用於測試
package com.it.lucene; import java.io.File; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.junit.Test; public class LuceneManager { public IndexWriter getIndexWriter() throws Exception{ //建立一個indexwriter對象 Directory directory=FSDirectory.open(new File("F:\\time"));//索引庫 Analyzer analyzer=new StandardAnalyzer();//官方分析器 IndexWriterConfig config=new IndexWriterConfig(Version.LATEST, analyzer); return new IndexWriter(directory, config); } //全刪除 @Test public void testAllDelete() throws Exception{ IndexWriter indexWriter=getIndexWriter(); indexWriter.deleteAll(); indexWriter.close(); } }
//根據條件刪除 @Test public void testDelete() throws Exception{ IndexWriter indexWriter=getIndexWriter(); Query query=new TermQuery(new Term("fileName","notice.txt")); indexWriter.deleteDocuments(query); indexWriter.close(); }
原理就是先刪除後添加。
//修改 @Test public void testUpdate() throws Exception{ IndexWriter indexWriter=getIndexWriter(); Document doc=new Document(); doc.add(new TextField("fileN","測試文件名",Store.YES)); indexWriter.updateDocument(new Term("fileName","notice"),doc,new IKAnalyzer()); indexWriter.close(); }
對要搜索的信息建立Query查詢對象,Lucene會根據Query查詢對象生成最終的查詢語法,相似關係數據庫Sql語法同樣Lucene也有本身的查詢語法,好比:「name:lucene」表示查詢Field的name爲「lucene」的文檔信息。
掌握如下一種便可
可經過兩種方法建立查詢對象:
1)使用Lucene提供Query子類
Query是一個抽象類,lucene提供了不少查詢對象,好比TermQuery項精確查詢,NumericRangeQuery數字範圍查詢等。
以下代碼:
Query query = new TermQuery(new Term("name", "lucene"));
2)使用QueryParse解析查詢表達式
QueryParse會將用戶輸入的查詢表達式解析成Query對象實例。
以下代碼:
QueryParser queryParser = new QueryParser("name", new IKAnalyzer());
Query query = queryParser.parse("name:lucene");
使用MatchAllDocsQuery查詢索引目錄中的全部文檔
public IndexSearcher getIndexSearcher() throws Exception{ //建立一個Directory對象,也就是索引庫存放的位置。 Directory directory=FSDirectory.open(new File("F:\\time")); //建立一個indexReader對象,須要指定Directory對象。 IndexReader ir=DirectoryReader.open(directory); //建立一個indexsearcher對象,須要指定IndexReader對象 return new IndexSearcher(ir); } //執行查詢結果 public static void printResult(IndexSearcher indexsearcher,Query query) throws Exception{ //執行查詢。 TopDocs topDocs = indexsearcher.search(query, 2); //返回查詢結果。遍歷查詢結果並輸出。 ScoreDoc[] scoreDocs = topDocs.scoreDocs;//文檔id for (ScoreDoc scoreDoc : scoreDocs) { int doc = scoreDoc.doc; Document document = indexsearcher.doc(doc);//獲取文檔 String fileName = document.get("fileName"); System.out.println(fileName); String fileContent = document.get("fileContent"); System.out.println(fileContent); String fileSize= document.get("fileSize"); System.out.println(fileSize); String filePath = document.get("filePath"); System.out.println(filePath); System.out.println("-----------------------------"); } } //查詢全部 @Test public void testMatchAllDocsQuery() throws Exception{ IndexSearcher indexSearcher=getIndexSearcher(); Query query=new MatchAllDocsQuery(); printResult(indexSearcher,query); indexSearcher.getIndexReader().close(); }
TermQuery,經過項查詢,TermQuery不使用分析器因此建議匹配不分詞的Field域查詢,好比訂單號、分類ID號等。
指定要查詢的域和要查詢的關鍵詞。
//使用Termquery查詢 @Test public void testTermQuery() throws Exception { IndexSearcher indexSearcher = getIndexSearcher(); //建立查詢對象 Query query = new TermQuery(new Term("fileName", "notice")); //執行查詢 TopDocs topDocs = indexSearcher.search(query, 10); //共查詢到的document個數 System.out.println("查詢結果總數量:" + topDocs.totalHits); }
能夠根據數值範圍查詢。
//根據數值範圍查詢 @Test public void testNumericRangeQuery() throws Exception{ IndexSearcher indexSearcher=getIndexSearcher(); Query query=NumericRangeQuery.newLongRange("fileSize", 1L, 20000L, true, true); printResult(indexSearcher,query); indexSearcher.getIndexReader().close(); }
能夠組合查詢條件。
//組合條件查詢 @Test public void testBooleanQuery() throws Exception { IndexSearcher indexSearcher = getIndexSearcher(); //建立一個布爾查詢對象 BooleanQuery query = new BooleanQuery(); //建立第一個查詢條件 Query query1 = new TermQuery(new Term("fileName", "notice")); Query query2 = new TermQuery(new Term("fileContent", "has")); //組合查詢條件 query.add(query1, Occur.SHOULD); query.add(query2, Occur.SHOULD); //執行查詢 printResult(indexSearcher,query); }
Occur.MUST:必須知足此條件,至關於and
Occur.SHOULD:應該知足,可是不知足也能夠,至關於or
Occur.MUST_NOT:必須不知足。至關於not
經過QueryParser也能夠建立Query,QueryParser提供一個Parse方法,此方法能夠直接根據查詢語法來查詢。Query對象執行的查詢語法可經過System.out.println(query);查詢。
須要使用到分析器。建議建立索引時使用的分析器和查詢索引時使用的分析器要一致。
//條件解析的對象查詢
@Test public void testQueryParser() throws Exception { IndexSearcher indexSearcher = getIndexSearcher(); //建立queryparser對象 //第一個參數默認搜索的域 //第二個參數就是分析器對象 QueryParser queryParser = new QueryParser("fileName",new IKAnalyzer()); //*:* 域:值 Query query = queryParser.parse("notice"); //執行查詢 printResult(indexSearcher,query); }
1、基礎的查詢語法,關鍵詞查詢:
域名+「:」+搜索的關鍵字
例如:content:java
二、範圍查詢
域名+「:」+[最小值 TO 最大值]
例如:size:[1 TO 1000]
範圍查詢在lucene中支持數值類型,不支持字符串類型。在solr中支持字符串類型。
三、組合條件查詢
1)+條件1 +條件2:兩個條件之間是而且的關係and
例如:+filename:apache +content:apache
2)+條件1 條件2:必須知足第一個條件,應該知足第二個條件
例如:+filename:apache content:apache
3)條件1 條件2:兩個條件知足其一便可。
例如:filename:apache content:apache
4)-條件1 條件2:必須不知足條件1,要知足條件2
例如:-filename:apache content:apache
Occur.MUST 查詢條件必須知足,至關於and |
+(加號) |
Occur.SHOULD 查詢條件可選,至關於or
|
空(不用符號) |
Occur.MUST_NOT 查詢條件不能知足,至關於not非 |
-(減號) |
第二種寫法:
條件1 AND 條件2
條件1 OR 條件2
條件1 NOT 條件2
能夠指定多個默認搜索域
//條件解析的對象查詢 多個默認域 @Test public void testMultiFiledQueryParser() throws Exception { IndexSearcher indexSearcher = getIndexSearcher(); //能夠指定默認搜索的域是多個 String[] fields = {"fileName", "fileContent"}; //建立一個MulitFiledQueryParser對象 MultiFieldQueryParser queryParser = new MultiFieldQueryParser(fields, new IKAnalyzer()); Query query = queryParser.parse("java AND apache"); System.out.println(query); //執行查詢 printResult(indexSearcher,query); }