首先咱們來看看我當初使用Lucene5是如何實現的,
在Solr5中,咱們只須要爲IKTokenizer擴展一個IKTokenizerFactory,爲PinyinTokenFilter擴展一個PinyinTokenFilterFactory,爲PinyinNGramTokenFilter擴展一個PinyinNGramTokenFilterFactory,其中IKTokenizerFactory我已經擴展過了,剩下須要作的就是自定義PinyinTokenFilterFactory和PinyinNGramTokenFilterFactory了。若是你不知道如何擴展,請參看Solr的StopFilterFactory類源碼,照葫蘆畫瓢。OK,我來全程截圖示範,我是如何擴展的?java
既然是要擴展PinyinTokenFilterFactory,從類名就知道它是PinyinTokenFilter的工廠類,因此咱們首先須要把我以前寫的PinyinTokenFilter和PinyinNGramTokenFilter類copy到一個新的項目中來,如圖:
我新建一個solr-analyzer-extra Java Project,把我以前寫的幾個類copy到如圖紅色框住的package中,那幾個類你在我Lucene5系列博客中均可以找到源碼,或者你到個人GitHub上也能夠獲得相關源碼。個人GitHub地址待會兒我會在博客的結尾處貼出來,敬請關注哦!圖片中顯示還有ik和ansj兩個package,這就是我爲了前面幾篇博客擴展的TokenizerFactory,你懂的!而後咱們須要添加依賴的Jar包,如圖:
之因此分Lucene5和Solr5兩個包,就是爲了方便打包Jar包,這樣我就能夠把lucene5包下的類單獨打包成一個jar,solr5下打包成一個jar,當你僅僅只是在Lucene5下須要使用拼音分詞,那solr5包下的類是用不到的,打包成兩個jar是爲了按需加載類,你懂的!特此說明。node
OK,開始在Solr5包下擴展PinyinTokenFilterFactory,我擴展的源碼如圖:web
擴展的PinyinNGramTokenFilterFactory源碼如圖:
對應的PinyinNGramTokenFilter類我稍做了修改,主要是添加了nGramNumber參數,用於控制是否對純數字進行nGram處理,有時候可能並不但願對相似 2011 這樣的數字進行nGram,固然若是你須要對純數字字符串進行nGram處理,請把nGramNumber參數設置爲true便可,默認該值爲false。PinyinNGramTokenFilter類我修改的地方以下:
apache
其中定義了一個常量類Constant,就是不想把默認值常量寫死在各個類裏,因此統一放到了一個常量類裏,如圖:
tomcat
上面涉及到的全部源碼我待會兒都會在底下附件裏上傳分享給大家。OK,到此該擴展的類都編寫完畢了,咱們須要將他們打包成jar,如圖:
而後你就會在你的桌面上看到這個jar包,
OK,同理,對solr5包下的類進行打包,提供給使用Solr5的用戶使用,如圖:
而後兩個jar包就都打好了,如圖:
接下來,咱們就須要把咱們打好的jar包導入到咱們的core的lib目錄下,如圖:
因爲咱們的漢字轉拼音使用到了pinyin4j類庫,因此咱們還須要把pinyin4j的jar包也複製到當前core的lib目錄下,如圖:
因爲咱們是先進行中文分詞,而後再對分出來的中文詞語進行拼音轉換,而這裏我以IK分詞器爲例,因此咱們還須要把IK的jar包也copy進去,如圖:
OK,jar包導入完畢後,咱們須要在咱們的schema.xml中定義域類型,配置示例如圖:
這是默認最基本的配置,固然PinyinTokenFilterFactory和PinyinNGramTokenFilterFactory這兩個工廠類是有可選的配置參數能夠設置的,請看圖:
所以,你也能夠這樣配置:
域類型定義好後,你須要在你的某個域上應用這個新定義的text_pinyin域類型,如圖:
OK,啓動你的tomcat,開始進行拼音分詞測試,如圖:
OK,到此關於Solr5中關於拼音分詞以及拼音搜索就講解到這兒了網絡
要想在Sor中使用MMSeg4J分詞器,首先你須要自定義一個TokenizerFactory實現類,雖然直接配置Analyzer類也能夠,但那樣沒法配置Analyzer構造函數的參數,不夠靈活,存在弊端,因此我一直都是以擴展TokenizerFactory的方式來說解相似MMSeg4J這樣的中文分詞器在Solr中的使用。app
MMSegTokenizerFactory類我花了3個多小時修改了源碼並通過N多測試,表示已經可使用,我主要的是針對Lucene5 API對MMSegTokenizer類作了升級更新並添加了自定義停用詞功能,默認MMSeg4J沒有實現自定義停用詞功能。相關jar包請到底下的附件裏去下載。下面介紹MMSeg4J在solr5中的使用步驟:eclipse
1. copy依賴的jar包到當前core\lib目錄下,如圖:webapp
2.在你的schema.xml中配置fieldType應用上我擴展的MMSegTokenizerFactory類,具體配置看圖:
ide
Xml代碼
其中mode參數表示MMSeg4J的分詞模式,自帶有3種可選值:simple,complex,maxword, mode參數不配置默認爲maxword模式;stopwordsPath是用來配置自定義停用詞加載路徑的,默認是相對於classPath的,自定義停用詞字典文件放置路徑請看圖:
自定義停用詞詞典文件加載路徑配置參數是可選的,不過因爲MMSeg4J沒有內置停用詞功能,因此像空格字符,標點符號等等都會被分出來,因此通常建議添加停用詞詞典文件。不過要注意的是,自定義的停用詞詞典文件的編碼必須是UTF-8無BOM格式,並且在你使用文本編輯軟件打開進行編輯的時候,請務必將你的編輯軟件的編碼設置爲UTF-8,不然可能會出現原本是UTF-8無BOM編碼,你打開編輯保存後編碼就改變了。當你發現明明停用詞在詞典文件裏,卻很奇怪不起做用時,那十有八九是由於詞典文件編碼已經被破壞,建議詞典文件不要本身新建,能夠保留一個dic模版文件,每次直接copy過來修改文件名而後再打開編輯。
3.而後你須要在你的某個field域上應用剛纔定義的FieldType(域類型),如圖:
OK,如今你能夠啓動你的Tomcat進行分詞測試了,如圖:
mmseg-stopwrods目錄下的stopwords.dic停用詞詞典文件我添加了以下停用詞:
第3個是一個空格字符,第4個是中文狀態下的逗號字符,第5個是中文狀態下的句號字符。你想要剔除哪些字符,具體留給大家本身去完善。
若是我想配置自定義新詞呢,好比麼麼噠,萌萌噠之類的,默認確定是分不出來的,該如何配置呢?MMSeg4J默認是內置了自定義詞典擴展功能的,且默認加載思路以下:
從默認目錄加載詞庫文件, 查找默認目錄順序:
1.首先從系統屬性mmseg.dic.path指定的目錄中加載
2.若從系統屬性mmseg.dic.path指定的目錄中加載不到,再從classpath/data目錄加載
3.若從classpath/data目錄加載不到,再從user.dir/data目錄加載
須要注意的是,MMSeg4J對於字典dic文件的命名有要求,只有以words開頭 以.dic結尾的文件纔會被加載。
知道上述加載原理,那咱們只須要把自定義擴展詞典文件如圖放置便可:
到此,MMSeg4J分詞器在Solr5中的使用就講解完畢了
在Solr中該如何使用IK分詞器呢,這是小夥伴們問的頻率比較高的一個問題,今晚特此更新此篇博客。其實以前我在其餘博客裏已經使用了IK分詞器,只是我沒作詳細說明。
在schema.xml配置中其實有不少關於分詞器的配置示例,我從中摘錄一段配置示例,好比:
Xml代碼
fileType是用來定義域類型的,name即表示域名稱,class即表示域類型對應的class類,若是是solr內置的域類型則能夠直接使用solr.前綴+域類型的類名便可,若是是你自定義的域類型,則class表示自定義域類型的完整類名(包含完整的包路徑),在fileType元素下有analyzer元素,用來配置當前域類型使用什麼分詞器,你確定很奇怪,爲何要配置兩個analyzer,其實主要是爲了區分兩個階段:索引創建階段和Query查詢階段,索引創建階段須要分詞毋庸置疑,查詢階段是否須要分詞,則取決於你的業務需求,用過Google的知道,用戶在查詢輸入框裏輸入查詢關鍵字,這時候咱們須要對用戶輸入的查詢關鍵字進行分詞器,這時候咱們就須要配置查詢階段使用什麼分詞器,爲何把分開配置?二者可使用統一配置不行嗎,配置兩遍不是顯得很冗餘且繁瑣嗎?analyzer的type元素就表示這兩個階段,之因此要分階段配置分詞器,是爲了知足用戶潛在的需求,由於查詢階段的分詞需求和索引階段的分詞需求不必定是相同的。咱們都知道分詞器Analyzer是由一個Tokenizer + N個tokenFilter組成,這就是爲何analyzer元素下會有tokenizer元素和filter元素,但tokenizer元素只容許有一個,filter元素能夠有N個。之因此這樣設計是爲了爲用戶提供更細粒度的方式來配置分詞器的行爲,即你能夠任意組合tokenizer和filter來實現你的特定需求,固然你也能夠把這種組合寫在Analyzer類裏,而後直接在analyzer元素的class屬性裏配置自定義分詞器的完整類名,這樣就不須要這麼繁瑣的配置tokenizer和filter,即把實現細節屏蔽在analyzer類內部,但這樣作的話,若是你須要更改實現細節,則須要修改Analyzer源碼,而後從新打包成jar,相對來講,比較麻煩點,而使用analyzer,tokenizer,filter這樣來配置,雖然繁瑣點,但更靈活。並且採用<analyzer class="xxxxxxxx.IKAnalyzer"這樣配置方式,看起來是比較簡潔,我想你可能會比較喜歡這種方式,遺憾的是,solr在實現這種方式的時候,考慮不夠周全,好比IKAnalyzer分詞器,咱們都知道IK分詞器的構造器還有個useSmart參數,表示是否開啓智能分詞,而<analyzer class="xxxxxxxx.IKAnalyzer"這種方式,本質仍是經過SAX方式解析XML,而後獲得class類型字符串,而後經過反射去建立Analyzer實例對象,你可能會問我,我爲何知道是這樣實現的?我看了Solr的源碼因此我知道,無碼無真相,來看截圖:(在FieldTypePluginLoader類中)
關鍵點部分我已經使用紅色方框標註出來了,class.newInstance()本質就是經過反射的方式去調用類的無參構造函數,這個你們都知道吧,而IKAnalyzer分詞器的構造函數代碼如圖:
這意味着useSmart參數永遠得不到設置,它永遠爲false,這就是採用<analyzer class="xxxxxxxx.IKAnalyzer"這種方式進行配置的弊端。它看似很是簡潔,但暗藏陷阱,坑爹的Solr。那有沒辦法解決呢?我能想到的辦法就是修改源碼從新打包,你可能會問怎麼修改?聽我慢慢說,不要急。
在FieldTypePluginLoader類中有個readAnalyzer(Node node)方法,其中有一句代碼很是關鍵:
Java代碼
其中node對象即表示當前<analyzer元素節點,而DOMUtil.getAttr(attrs,"class");表示經過DOMUtil工具類來獲取<analyzer元素的class屬性,這個好理解吧,咱們在schema.xml中多是這樣配置的
<analyzer class="xxxxx.IKAnalyzer",那一句目的就是獲取分詞器的class類名,知道類名了就能夠反射去建立分詞器實例對象啊,就這麼簡單,因此咱們能夠本身在<analyzer元素中加一個參數,好比這樣:
Xml代碼
而後咱們在代碼裏String useSmart = DOMUtil.getAttr(attrs,"useSmart");就能夠獲取到屬性值了,而後就是經過反射把屬性值設置到IKAnalyzer類的useSmart屬性中了,這是基本的Java反射操做,下面我提供幾個反射工具方法:
Java代碼
直接調用setFieldValue方法便可,好比在Analyzer analyzer = clazz.newInstance();這句下面添加一句
setFieldValue(analyzer,"useSmart",Boolean.valueOf(useSmart ));
這樣咱們在xml中配置的useSmart參數就設置到Analyzer類中了,這樣才能起做用。solr源碼如何導入Eclipse上篇博客裏我已經介紹過了,至於若是把修改事後的代碼打包成jar,直接使用eclipse自帶的export功能便可,如圖:
而後一路Next便可。我只是說說思路,剩下留給大家本身去實踐。
可是採用改源碼方式不是很優雅,由於你本地雖然是修改好了,哪天你由Solr5.1.0升級到5.2.0,還要再改一遍,沒升級一次就要改一次,你的代碼copy給別人用,別人運行代碼後看不到效果,增長溝通成本,你還得把你改過源碼的jar包共享給別人,這也就是爲何有那麼多人找我要什麼IK jar包。
在Solr中可使用TokenizerFactory方式來解決我剛纔提出的問題:IKAnalyzer分詞器的useSmart參數沒法經過schema.xml配置文件進行設置。我花了點時間擴展了IKTokenizerFactory類,代碼以下:
Java代碼
同時我對IKTokenizer類也稍做了修改,修改後源碼以下:
Java代碼
修改後從新打包的IKAnalyzer jar請見底下的附件。
而後我把它打包成了solr-analyzer-ik-5.1.0.jar,只須要把這個jar包複製到你的core\lib目錄下便可,而後你就能夠像配置StandardTokenizerFactory同樣的使用咱們自定義的IKTokenizerFactory類了,而且能配置useSmart參數,這正是我想要的,能靈活的控制分詞器參數,so cool。配置示例以下:
而後field域裏應用咱們配置的這個text_ik域類型,如圖:
而後你還須要把IKAnalyzer jar包以及咱們自定義的IKTokenizerFactory的jar包copy到你當前core\lib目錄下,如圖:
IKAnalyzer jar建議使用底下附件裏我新上傳的,由於源碼我稍做了修改,上面已經提到過了。而後你須要把IKAnalyzer.cfg.xml配置文件copy到E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes目錄下,其中E:\apache-tomcat-7.0.55爲個人Tomcat安裝根目錄,請類比成你本身的tomcat安裝根目錄,你懂的。如圖:
IKAnalyzer.cfg.xml配置如圖:
ext.dic爲IK分詞器的自定義擴展詞典,內容如圖:
我就在裏面加了兩個自定義詞語。
而後你就能夠啓動你的tomcat,而後如圖進行分詞測試了,
上圖是用來測試useSmart參數設置是否有生效,若是你看到如圖的效果,說明配置成功了。
上圖是用來測試自定義詞典是否有生效,由於我在ext.dic自定義詞典裏添加了 勁爆 和 *絲 這兩個詞,因此IK能分出來,逆襲和白富美沒有在自定義擴展詞典裏添加,因此IK分不出來。若是你能看到如圖效果,說明IK的自定義擴展詞典也配置成功了
OK,直接開門見山,不繞彎子啦!基於上篇博客,咱們知道了在Solr中配置分詞器有兩種方式,一種是直接配置分詞器類,好比:
Xml代碼
一種是配置TokenizerFactory類,因爲Solr API中並無內置相似IK,Ansj這樣的中文分詞器的TokenizerFactory類,因此咱們須要本身擴展,不過大家不用擔憂,我已經擴展好了。配置樣例以下:
Xml代碼
我擴展的AnsjTokenizerFactory源碼以下:
Java代碼
下面介紹如何在Solr中使用Ansj分詞器,首先你須要在Solr_home的core\lib目錄下添加依賴的jar:
ansj_seg-2.0.8.jar(戳我試試(*^__^*) 嘻嘻)
solr-analyzer-ansj-5.1.0.jar(這個jar包體積較小,請在底下的附件裏下載)
nlp-lang-0.2.jar(這是ansj-seg-2.0.8.jar依賴的jar包)
如圖:
而後在schema.xml中添加以下配置:
至於query,pstemming,stopwordsDir這3個配置參數的含義,請看我在源碼中做的註釋,如圖:
query參數:分詞的兩個階段:創建索引階段和查詢階段,即表示是否爲查詢階段分詞,針對不一樣的分詞階段採用的分詞策略是不同的。具體看源碼,如圖:
pstemming:表示是否對英文單詞進行單複數轉換以及時態轉換,好比apples還原成apple,loved還原成love,broken還原成break,注意pstemming參數僅僅是針對英文,由於只有英文才有單複數和時態形式。
stopwordsDir參數就很好理解了,就是你的自定義停用詞詞典的存放路徑,
上面3個參數是可選的,不是必須配置的。
TokenizerFactory配置好了,而後你就在你的Field中應用此分詞器了,如圖:
而後你須要把ansj的library.properties配置文件copy到E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes路徑,如圖:
library.properties配置以下:
Xml代碼
比較噁心的是,anasj分詞器的字典文件加載路徑這裏只能寫死成絕對路徑,由於它源碼里加載字典文件是直接經過new File(dicPath)這種方式來實現的。當你在eclipse中運行,你的dicPath相對路徑是你的項目根目錄,而若是你的項目部署到tomcat,那dicPath的相對路徑就是tomcat根目錄下的bin,這確實比較啃爹,因此我這裏乾脆直接寫成絕對路徑,固然你能夠把字典文件放到任意目錄下,好比C:\Library,不是非要放到tomcat下,這個我必需要澄清下。下圖是Ansj分詞器在加載字典文件時比較噁心的實現方式:
若是改爲這樣方式加載字典文件會比較好點,我我的以爲:
this.getClass().getClassLoader().getResourceAsStream(dicPath);
這樣你的字典文件路徑dicPath的相對路徑纔是當前classPath。不過ansj裏你把字典文件配置成絕對路徑也能夠,不必定非要相對路徑,這點仁者見仁智者見智吧!騷年,你怎麼看?
接着你須要在E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes目錄下新建一個library目錄,而後把ansj自帶的兩個字典文件ambiguity.dic和default.dic複製進去,而後新建一個ext.dic文件。相關的字典文件和配置文件我待會兒會上傳到附件裏供大家參考。其中ext.dic是用戶自定義擴展字典文件,如圖:
對於相似這種網絡新詞,ansj分詞器默認是分不出來的,這時就須要定義自定義擴展字典。
你應該已經發現了,咱們在配置AnsjTokenizerFactory的時候配置了stopwordsDir="stopwords/stopwords.dic"自定義停用詞加載路徑,這裏的stopwordsDir是相對於當前classpath的即E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes,因此咱們須要在E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes下新建stopwords文件夾,而後在stopwords文件夾下新建一個stopwords.dic字典文件,stopwords.dic內容以下:
這裏我只加兩個詞語做爲演示,大家能夠根據你本身的需求隨意添加你本身的停用詞。須要解釋下的是,之因此stopwordsDir參數是相對於當前classpath,是由於我在實現AnsjTokenizerFactory時是採用這樣的方式來加載詞典文件的,如圖:
這一切準備好了,你就開始進行分詞測試了,請如圖進行測試:
上圖是對自定義新詞進行分詞測試,麼麼噠和啪**之因此能被分出來,是由於咱們在library\ext.dic自定義詞典文件中添加了那兩個詞語。
上圖是用來測試pstemming參數即英文單詞的單複數轉換以及時態轉換,loved是過去式,自動被轉換成原型love
上圖是用來測試自定義停用詞的,若是你看到如圖效果,說明你配置成功了!