Sphinx是一個全文檢索引擎。html
遇到一個相似這樣的需求:用戶能夠經過文章標題和文章搜索到一片文章的內容,而文章的標題和文章的內容分別保存在不一樣的庫,並且是跨機房的。mysql
A、直接在數據庫實現跨庫LIKE查詢算法
優勢:簡單操做sql
缺點:效率較低,會形成較大的網絡開銷數據庫
B、結合Sphinx中文分詞搜索引擎數組
優勢:效率較高,具備較高的擴展性服務器
缺點:不負責數據存儲網絡
使用Sphinx搜索引擎對數據作索引,數據一次性加載進來,而後作了因此以後保存在內存。這樣用戶進行搜索的時候就只須要在Sphinx服務器上檢索數據便可。並且,Sphinx沒有MySQL的伴隨機磁盤I/O的缺陷,性能更佳。數據結構
一、快速、高效、可擴展和核心的全文檢索機器學習
二、高效地使用WHERE子句和LIMIT字句
當在多個WHERE條件作SELECT查詢時,索引選擇性較差或者根本沒有索引支持的字段,性能較差。sphinx能夠對關鍵字作索引。區別是,MySQL中,是內部引擎決定使用索引仍是全掃描,而sphinx是讓你本身選擇使用哪種訪問方法。由於sphinx是把數據保存到RAM中,因此sphinx不會作太多的I/O操做。而mysql有一種叫半隨機I/O磁盤讀,把記錄一行一行地讀到排序緩衝區裏,而後再進行排序,最後丟棄其中的絕大多數行。因此sphinx使用了更少的內存和磁盤I/O。
三、優化GROUP BY查詢
在sphinx中的排序和分組都是用固定的內存,它的效率比相似數據集所有能夠放在RAM的MySQL查詢要稍微高些。
四、並行地產生結果集
sphinx可讓你從相同數據中同時產生幾份結果,一樣是使用固定量的內存。做爲對比,傳統SQL方法要麼運行兩個查詢,要麼對每一個搜索結果集建立一個臨時表。而sphinx用一個multi-query機制來完成這項任務。不是一個接一個地發起查詢,而是把幾個查詢作成一個批處理,而後在一個請求裏提交。
五、向上擴展和向外擴展
六、聚合分片數據
適合用在將數據分佈在不一樣物理MySQL服務器間的狀況。
例子:有一個1TB大小的表,其中有10億篇文章,經過用戶ID分片到10個MySQL服務器上,在單個用戶的查詢下固然很快,若是須要實現一個歸檔分頁功能,展現某個用戶的全部朋友發表的文章。那麼就要同事訪問多臺MySQL服務器了。這樣會很慢。而sphinx只須要建立幾個實例,在每一個表裏映射出常常訪問的文章屬性,而後就能夠進行分頁查詢了,總共就三行代碼的配置。
介紹了Sphinx的工做原理,關於如何安裝的文章在網上有不少,筆者就再也不復述了,如今繼續講解Sphinx的配置文件,讓Sphinx工做起來。
Database:數據源,是Sphinx作索引的數據來源。由於Sphinx是無關存儲引擎、數據庫的,因此數據源能夠是MySQL、PostgreSQL、XML等數據。
Indexer:索引程序,從數據源中獲取數據,並將數據生成全文索引。能夠根據需求,按期運行Indexer達到定時更新索引的需求。
Searchd:Searchd直接與客戶端程序進行對話,並使用Indexer程序構建好的索引來快速地處理搜索查詢。
APP:客戶端程序。接收來自用戶輸入的搜索字符串,發送查詢給Searchd程序並顯示返回結果。
Sphinx的整個工做流程就是Indexer程序到數據庫裏面提取數據,對數據進行分詞,而後根據生成的分詞生成單個或多個索引,並將它們傳遞給searchd程序。而後客戶端能夠經過API調用進行搜索。
介紹了Sphinx工做原理以及Sphinx的配置以後,繼續介紹在Sphinx中,負責作索引的程序Indexer是如何作索引的。
sphinx使用配置文件從數據庫讀出數據以後,就將數據傳遞給Indexer程序,而後Indexer就會逐條讀取記錄,根據分詞算法對每條記錄創建索引,分詞算法能夠是一元分詞/mmseg分詞。下面先介紹Indexer作索引時使用的數據結構和算法。
先來看一份數據源的配置文件示例:
1 source test
2 { 3 type = mysql 4 5 sql_host = 127.0.0.1 6 sql_user = root 7 sql_pass = root 8 sql_db = test 9 sql_port = 3306 # optional, default is 3306 10 11 sql_query_pre = SET NAMES utf8 12 sql_query = SELECT id, name, add_time FROM tbl_test 13 14 sql_attr_timestamp = add_time 15 16 sql_query_info_pre = SET NAMES utf8 17 sql_query_info = SELECT * FROM tbl_test WHERE id=$id 18 }
其中
source後面跟着的是數據源的名字,後面作索引的時候會用到;
type:數據源類型,能夠爲MySQL,PostreSQL,Oracle等等;
sql_host、sql_user、sql_pass、sql_db、sql_port是鏈接數據庫的認證信息;
sql_query_pre:定義查詢時的編碼
sql_query:數據源配置核心語句,sphinx使用此語句從數據庫中拉取數據;
sql_attr_*:索引屬性,附加在每一個文檔上的額外的信息(值),能夠在搜索的時候用於過濾和排序。設置了屬性以後,在調用Sphinx搜索API時,Sphinx會返回已設置了的屬性;
sql_query_info_pre:設置查詢編碼,若是在命令行下調試出現問號亂碼時,能夠設置此項;
sql_query_info:設置命令行下返回的信息。
1 index test_index
2 { 3 source = test 4 path = /usr/local/coreseek/var/data/test
5 docinfo = extern 6 charset_dictpath = /usr/local/mmseg3/etc/ 7 charset_type = zh_cn.utf-8 8 ngram_len = 1 9 ngram_chars = U+3000..U+2FA1F 10 }
其中
index後面跟的test_index是索引名稱
source:數據源名稱;
path:索引文件基本名,indexer程序會將這個路徑做爲前綴生成出索引文件名。例如,屬性集會存在/usr/local/sphinx/data/test1.spa中,等等。
docinfo:索引文檔屬性值存儲模式;
charset_dictpath:中文分詞時啓用詞典文件的目錄,該目錄下必需要有uni.lib詞典文件存在;
charset_type:數據編碼類型;
ngram_len:分詞長度;
ngram_chars:要進行一元字符切分模式承認的有效字符集。
1 charset_type = utf8
2
3 ngram_len = 1
4
5 ngram_chars = U+3000..U+2FA1F
1 charset_type = utf8
2
3 charset_dictpath = /usr/local/mmseg3/etc/
4
5 ngram_len = 0
數據庫數據
使用indexer程序作索引
查詢
能夠看到,配置文件中的add_time被返回了,如上圖的1所示。而sql_query_info返回的信息如上圖的2所示。
Sphinx的配置不是很靈活,此處根據工做流程給出各部分的配置,更多的高級配置能夠在使用時查閱文檔。
倒排索引是一種數據結構,用來存儲在全文搜索下某個單詞在一個文檔或者一組文檔中的存儲位置的映射。它是文檔檢索系統中最經常使用的數據結構。
倒排索引(Inverted Index):倒排索引是實現「單詞-文檔矩陣」的一種具體存儲形式,經過倒排索引,能夠根據單詞快速獲取包含這個單詞的文檔列表。
傳統的索引是:索引ID->文檔內容,而倒排索引是:文檔內容(分詞)->索引ID。能夠類比正向代理和反向代理的區別來理解。正向代理把內部請求代理到外部,反向代理把外部請求代理到內部。因此應該理解爲轉置索引比較合適。
倒排索引主要由兩個部分組成:「單詞詞典」和「倒排文件」。
單詞詞典是倒排索引中很是重要的組成部分,它用來維護文檔集合中出現過的全部單詞的相關信息,同時用來記載某個單詞對應的倒排列表在倒排文件中的位置信息。在支持搜索時,根據用戶的查詢詞,去單詞詞典裏查詢,就可以得到相應的倒排列表,並以此做爲後續排序的基礎。
對於一個規模很大的文檔集合來講,可能包含幾十萬甚至上百萬的不一樣單詞,可否快速定位某個單詞直接影響搜索時的響應速度,因此須要高效的數據結構來對單詞詞典進行構建和查找,經常使用的數據結構包括哈希加鏈表結構和樹形詞典結構。
Indexer程序就是根據配置好地分詞算法,將獲取到的記錄進行分詞,而後用倒排索引作數據結構保存起來。
一元分詞的核心配置
1 charsey_type = zh_cn.utf8 2 ngram_len = 1 3 ugram_chars = U+4E00..U+9FBF
ngram_len是分詞的長度。
ngram_chars標識要進行一元分詞切分模式的字符集。
原生的Sphinx支持的分詞算法是一元分詞,這種分詞算法是對記錄的每一個詞切割後作索引,這種索引的優勢就是覆蓋率高,保證每一個記錄都能被搜索到。缺點就是會生成很大的索引文件,更新索引時會消耗不少的資源。因此,若是不是特殊需求,並且數據不是特別少的時候,都不建議使用一元分詞。
國人在sphinx的基礎上開發了支持中文分詞的Coreseek。Coreseek與Sphinx惟一的不一樣就是Coreseek還支持mmseg分詞算法作中文分詞。
mmseg分詞算法是基於統計模型的,因此算法的規則也是來自對語料庫的分析和數學概括,由於中文字符沒有明確的分界,會致使大量的字符分界歧義,並且,中文裏面,詞和短語也很難界定,所以,算法除了要作統計和數學概括以外,還要作歧義的解決。
在mmseg分詞中,有一個叫chunk的概念。
chunk,是一句話的分詞方式。包括一個詞條數組和四個規則。
如:研究生命,有「研究/生命」和「研究生/命」兩種分詞方式,這就是兩個chunk。
一個chunk有四個屬性:長度、平均長度(長度/分詞數)、方差、單字自由度(各單詞條詞頻的對數之和)。
作好分詞以後,會獲得多種分詞方式,這時候就要使用一些過濾規則來完成歧義的解決,以獲得最終的分詞方式。
歧義解決規則:
一、最大匹配
匹配最大長度的詞。如「國際化」,有「國際/化」、「國際化」兩種分詞方式,選擇後者。
二、最大平均詞長度
匹配平均詞最大的chunk。如「南京市長江大橋」,有「南京市/長江大橋」、「南京/市長/江大橋」三種分詞方式,前者平均詞長度是7/2=3.5,後者是7/3=2.3,故選擇前者的分詞方式。
三、最大方差
去方差最大的chunk。如「研究生命科學」,有「研究生/命/科學」、「研究/生命/科學「兩種分詞方式,而它們的詞長都同樣是2。因此須要繼續過濾,前者方差是0.82,後者方差是0。因此選擇第一種分詞方式。
四、最大單字自由度
選擇單個字出現最高頻率的chunk。好比」主要是由於「,有」主要/是/由於「,」主/要是/由於「兩種分詞方式,它們的詞長、方差都同樣,而」是「的詞頻較高,因此選擇第一種分詞方式。
若是通過上述四個規則的過濾,剩下的chunk仍然大於一,那這個算法也無能爲力了,只能本身寫擴展完成。
固然,有人會說數據庫的索引也能夠作到sphinx索引,只是數據結構不同而已,可是,最大的不一樣是sphinx就像一張沒有任何關係查詢支持的單表數據庫。並且,索引主要用在搜索功能的實現而不是主要的數據來源。所以,你的數據庫也許是符合第三範式的,但索引會徹底被非規範化並且主要包含須要被搜索的數據。
另一點,大部分數據庫都會遭遇一個內部碎片的問題,它們須要在一個大請求裏遭遇太多的半隨機I/O任務。那就是說,考慮一個在數據庫的索引中,查詢指向索引,索引指向數據,若是數據由於碎片問題被分開在不一樣的磁盤中,那麼這次查詢將佔用很長的時間。
經過一個項目的實踐,發現sphinx的使用要點主要在配置文件上,若是懂得配置了,那麼基本用法很容易掌握。若是要深刻研究,好比研究其工做原理,那就得查閱更多的資料。高級特性尚未用到,往後用到再作分享。最後,若是還想擴展sphinx,定製更強大的功能,能夠直接閱讀源代碼,而後編寫擴展。使用sphinx也有弊端,若是須要保證高質量的搜索,那麼就要常常手動維護詞庫。若是不能保持常常更新詞庫,那麼能夠考慮百度搜索之類的插件。若是能夠加入機器學習的話,那麼會更好。
原創文章,文筆有限,才疏學淺,文中如有不正之處,萬望告知。
若是本文對你有幫助,請點下推薦,寫文章不容易。