最近找了視頻學習lucene和solr,記一下怎麼配置solrjava
JDK使用的爲1.7,若是用1.6貌似會提示版本低web
先下載solr3.5和mmseg4j1.8.5的壓縮包,下載連接在底部瀏覽器
解壓solr3.5,解壓後目錄結構爲tomcat
在D盤新建一個目錄,名稱爲solr(看本身意思,位置和目錄名沒有特定要求),而後在裏面建立兩個目錄名稱分別爲home和server,而後將example目錄下的solr文件夾下的全部文件複製到新建的home目錄下,再將example目錄下webapps目錄中的solr.war解壓app
而後將解壓後的solr目錄移動到server目錄中webapp
這時候再修改home目錄中conf下的solrconfig.xml文件,將dataDir節點中的值改成${solr.data.dir:D:\solr\home\data}ide
接着找到tomcat目錄,修改server.xml添加虛擬路徑學習
<Context path="/solr" docBase="D:\solr\server\solr" reloadable="false"> <Environment name="solr/home" type="java.lang.String" value="D:\solr\home" override="true" /> </Context>
下一步取消VelocityResponseWriter輸出,不然啓動時會報異常,若是想用的話把jar加上就好了,修改solrconfig.xml測試
如今開始加入中文分詞,將mmseg4j1.8.5壓縮包中的mmseg4j-all-1.8.5.jar和mmseg4j-solr-1.8.5.jar放到D:\solr\server\solr\WEB-INF\lib目錄中spa
在D:\solr\home中再建立一個dic 目錄,用來存放分詞字典,將mmseg4j1.8.5自帶的四個擴展名爲dic的文件複製到此目錄便可
而後修改schema.xml文件
將原來的xml中的這幾個結點中的dicPath改成dic,若是沒有這些節點複製過去便可
<fieldType name="textComplex" class="solr.TextField" > <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="complex" dicPath="dic"/> </analyzer> </fieldType> <fieldType name="textMaxWord" class="solr.TextField" > <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="max-word" dicPath="dic"/> </analyzer> </fieldType> <fieldType name="textSimple" class="solr.TextField" > <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="simple" dicPath="dic"/> </analyzer> </fieldType>
到如今基本的配置已經完成,開始啓動tomcat進行測試
在瀏覽器輸入http://localhost:8080/solr/admin/
點擊這裏畫線的地方,跳轉到分詞器測試頁面
將Field改成Type
而後在右邊的文本框中輸入text_general
點擊按鈕後會在下方顯示出分詞結果,會發現自帶的分詞器在對中文分詞時是按單字來分的,並非按詞來分
接着將text_general改成textComplex再進行測試,分詞的時候就是按中文詞語來分了
注意:text_general和textComplex都是在sechma.xml配置好的分詞器,並非隨便添的
下載連接:
solr3.5:http://pan.baidu.com/s/1xwry2
mmseg4j1.8.5:http://pan.baidu.com/s/1pJHoA2f