單表千萬行數據庫 LIKE 搜索優化手記

咱們常常在數據庫中使用 LIKE 操做符來完成對數據的模糊搜索,LIKE 操做符用於在 WHERE 子句中搜索列中的指定模式。html

若是須要查找客戶表中全部姓氏是「張」的數據,可使用下面的 SQL 語句:程序員

SELECT * FROM Customer WHERE Name LIKE '張%'

若是須要查找客戶表中全部手機尾號是「1234」的數據,可使用下面的 SQL 語句:數據庫

SELECT * FROM Customer WHERE Phone LIKE '%123456'

若是須要查找客戶表中全部名字中包含「秀」的數據,可使用下面的 SQL 語句:數組

SELECT * FROM Customer WHERE Name LIKE '%秀%'

以上三種分別對應了:左前綴匹配、右後綴匹配和模糊查詢,而且對應了不一樣的查詢優化方式。ide

數據概覽

如今有一張名爲 tbl_like 的數據表,表中包含了四大名著中的所有語句,數據條數上千萬:函數

左前綴匹配查詢優化

若是要查詢全部以「孫悟空」開頭的句子,可使用下面的 SQL 語句:工具

SELECT * FROM tbl_like WHERE txt LIKE '孫悟空%'

SQL Server 數據庫比較強大,耗時八百多毫秒,並不算快:測試

咱們能夠在 txt 列上創建索引,用於優化該查詢:優化

CREATE INDEX tbl_like_txt_idx ON [tbl_like] ( [txt] )

應用索引後,查詢速度大大加快,僅需 5 毫秒:this

由此可知:對於左前綴匹配,咱們能夠經過增長索引的方式來加快查詢速度。

右後綴匹配查詢優化

在右後綴匹配查詢中,上述索引對右後綴匹配並不生效。使用如下 SQL 語句查詢全部以「孫悟空」結尾的數據:

SELECT * FROM tbl_like WHERE txt LIKE '%孫悟空'

效率十分低下,耗時達到了 2.5秒:

咱們能夠採用「以空間換時間」的方式來解決右後綴匹配查詢時效率低下的問題。

簡單來講,咱們能夠將字符串倒過來,讓右後綴匹配變成左前綴匹配。以「防着古海回來再抓孫悟空」爲例,將其倒置以後的字符串是「空悟孫抓再來回海古着防」。當須要查找結尾爲「孫悟空」的數據時,去查找以「空悟孫」開頭的數據便可。

具體作法是:在該表中增長「txt_back」列,將「txt」列的值倒置後,填入「txt_back」列中,最後爲 「txt_back」列增長索引。

ALTER TABLE tbl_like ADD txt_back nvarchar(1000);-- 增長數據列 UPDATE tbl_like SET txt_back = reverse(txt); -- 填充 txt_back 的值 CREATE INDEX tbl_like_txt_back_idx ON [tbl_like] ( [txt_back] );--  txt_back 列增長索引

數據表調整以後,咱們的 SQL 語句也須要調整:

SELECT * FROM tbl_like WHERE txt_back LIKE '空悟孫%'

此番操做下來,執行速度就很是迅速了:

由此可知:對於右後綴匹配,咱們能夠創建倒序字段將右後綴匹配變成左前綴匹配來加快查詢速度。

模糊查詢優化

在查詢全部包含「悟空」的語句時,咱們使用如下的 SQL 語句:

SELECT * FROM tbl_like WHERE txt LIKE '%悟空%'

該語句沒法利用到索引,因此查詢很是慢,須要 2.7 秒:

遺憾的是,咱們並無一個簡單的辦法能夠優化這個查詢。但沒有簡單的辦法,並不表明沒有辦法。解決辦法之一就是:分詞+倒排索引。

分詞就是將連續的字序列按照必定的規範從新組合成詞序列的過程。咱們知道,在英文的行文中,單詞之間是以空格做爲天然分界符的,而中文只是字、句和段能經過明顯的分界符來簡單劃界,惟獨詞沒有一個形式上的分界符,雖然英文也一樣存在短語的劃分問題,不過在詞這一層上,中文比之英文要複雜得多、困可貴多。

倒排索引源於實際應用中須要根據屬性的值來查找記錄。這種索引表中的每一項都包括一個屬性值和具備該屬性值的各記錄的地址。因爲不是由記錄來肯定屬性值,而是由屬性值來肯定記錄的位置,於是稱爲倒排索引(inverted index)。帶有倒排索引的文件咱們稱爲倒排索引文件,簡稱倒排文件(inverted file)。

以上兩段讓人摸不着頭腦的文字來自百度百科,你能夠和我同樣選擇忽略他。

咱們不須要特別高超的分詞技巧,由於漢語的特性,咱們只需「二元」分詞便可。

所謂二元分詞,即將一段話中的文字每兩個字符做爲一個詞來分詞。仍是以「防着古海回來再抓孫悟空」這句話爲例,進行二元分詞以後,獲得的結果是:防着、着古、古海,海回,回來,來再,再抓,抓孫,孫悟,悟空。使用 C# 簡單實現一下:

public static List<String> Cut(String str) { var list = new List<String>(); var buffer = new Char[2]; for (int i = 0; i < str.Length - 1; i++) { buffer[0] = str[i]; buffer[1] = str[i + 1]; list.Add(new String(buffer)); } return list; }

測試一下結果:

咱們須要一張數據表,把分詞後的詞條和原始數據對應起來,爲了得到更好的效率,咱們還用到了覆蓋索引:

CREATE TABLE tbl_like_word ( [id] int identity, [rid] int NOT NULL, [word] nchar(2) NOT NULL, PRIMARY KEY CLUSTERED ([id]) ); CREATE INDEX tbl_like_word_word_idx ON tbl_like_word(word,rid);-- 覆蓋索引(Covering index

以上 SQL 語句建立了一張名爲 」tbl_like_word「的數據表,併爲其 」word「和「rid」列增長了聯合索引。這就是咱們的倒排表,接下來就是爲其填充數據。

爲了便於演示,筆者使用了 LINQPad 來作數據處理,對該工具感興趣的朋友,能夠參看筆者以前的文章:《.NET 程序員的 Playground :LINQPad》,文章中對 LINQPad 作了一個簡要的介紹,連接地址是:https://www.coderbusy.com/archives/432.html 。

咱們須要先用 LINQPad 自帶的數據庫連接功能連接至數據庫,以後就能夠在 LINQPad 中與數據庫交互了。首先按 Id 順序每 3000 條一批讀取 tbl_like 表中的數據,對 txt 字段的值分詞後生成 tbl_like_word 所需的數據,以後將數據批量入庫。完整的 LINQPad 代碼以下:

void Main() { var maxId = 0; const int limit = 3000; var wordList = new List<Tbl_like_word>(); while (true) { $"開始處理:{maxId} 以後 {limit} 條".Dump("Log"); //分批次讀取 var items = Tbl_likes .Where(i => i.Id > maxId) .OrderBy(i => i.Id) .Select(i => new { i.Id, i.Txt }) .Take(limit) .ToList(); if (items.Count == 0) { break; } //逐條生產 foreach (var item in items) { maxId = item.Id; //單個字的數據跳過 if (item.Txt.Length < 2) { continue; } var words = Cut(item.Txt); wordList.AddRange(words.Select(str => new Tbl_like_word { Rid = item.Id, Word = str })); } } "處理完畢,開始入庫。".Dump("Log"); this.BulkInsert(wordList); SaveChanges(); "入庫完成".Dump("Log"); } // Define other methods, classes and namespaces here public static List<String> Cut(String str) { var list = new List<String>(); var buffer = new Char[2]; for (int i = 0; i < str.Length - 1; i++) { buffer[0] = str[i]; buffer[1] = str[i + 1]; list.Add(new String(buffer)); } return list; }
以上 LINQPad 腳本使用 Entity Framework Core 鏈接到了數據庫,並引用了 NuGet 包「EFCore.BulkExtensions」來作數據批量插入。

以後,就能夠把查詢安排上,先查詢倒排索引,而後關聯到主表:

SELECT TOP 10 * FROM tbl_like WHERE id IN ( SELECT rid FROM tbl_like_word WHERE word IN ('悟空'))

查詢速度很快,僅需十幾毫秒:

由於咱們將全部的語句分紅了二字符詞組,因此當須要對單個字符模糊查詢時,直接使用 LIKE 是一個更加經濟的方案。若是須要查詢的字符多於兩個時,就須要對查詢詞進行分詞。如需查詢「東土大唐」一詞,構造出的查詢語句可能會是這樣:

SELECT TOP 10*FROM tbl_like WHERE id IN ( SELECT rid FROM tbl_like_word WHERE word IN ('東土','土大','大唐'))

可是,該查詢並不符合咱們的預期,由於其將只包含「土大」的語句也篩選了出來:

咱們能夠採起一些技巧來解決這個問題,好比先 GROUP 一下:

SELECT TOP 10 * FROM tbl_like WHERE id IN ( SELECT rid FROM tbl_like_word WHERE word IN ( '東土', '土大', '大唐' ) GROUP BY rid HAVING COUNT ( DISTINCT ( word ) ) = 3 )

在上述 SQL 語句中,咱們對 rid 進行了分組,並篩選出了不重複的詞組數量是三個(即咱們的查詢詞數量)的。因而,咱們能夠獲得正確的結果:

由此可知:對於模糊查詢,咱們能夠經過分詞+倒排索引的方式優化查詢速度。

後記

雖然在講述時使用的是 SQL Server 數據庫,可是以上優化經驗對大部分關係型數據庫來講是通用的,好比 MySQL、Oracle 等。

若是你和筆者同樣在實際工做中使用 PostgreSQL 數據庫,那麼在作倒排索引時能夠直接使用數組類型並配置 GiN 索引,以得到更好的開發和使用體驗。須要注意的是,雖然 PostgreSQL 支持函數索引,可是若是對函數結果進行 LIKE 篩選時,索引並不會命中。

對於 SQLite 這種小型數據庫,模糊搜索並不能使用到索引,因此左前綴搜索和右後綴搜索的優化方式對其不生效。不過,通常咱們不會使用 SQLite 去存儲大量的數據,儘管分詞+倒排索引的優化方式也能夠在 SQLite 中實現。

相關文章
相關標籤/搜索