【轉】MySQL批量SQL插入各類性能優化

 

原文:http://mp.weixin.qq.com/s?__biz=MzA5MzY4NTQwMA==&mid=403182899&idx=1&sn=74edf28b0bd29f78f91d02785f34bdeb&scene=23&srcid=0321RBoPB5dOfm3vEQnACMLE#rd數據庫

MySQL批量SQL插入各類性能優化

對於一些數據量較大的系統,數據庫面臨的問題除了查詢效率低下,還有就是數據入庫時間長。特別像報表系統,天天花費在數據導入上的時間可能會長達幾個小時或十幾個小時之久。所以,優化數據庫插入性能是頗有意義的。性能優化

 

通過對MySQL innodb的一些性能測試,發現一些能夠提升insert效率的方法,供你們參考參考。
1. 一條SQL語句插入多條數據。
經常使用的插入語句如:
網絡

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)     
post

VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
 VALUES ('1', 'userid_1', 'content_1', 1);
性能

 

 

修改爲:測試

 

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)
優化

 

    VALUES
('0',
'userid_0',
'content_0',
0),
('1',
'userid_1',
'content_1',
1);
ui

 

修改後的插入操做可以提升程序的插入效率。這裏第二種SQL執行效率高的主要緣由是合併後日志量(MySQL的binlog和innodb的事務讓日誌) 減小了,下降日誌刷盤的數據量和頻率,從而提升效率。經過合併SQL語句,同時也能減小SQL語句解析的次數,減小網絡傳輸的IO。
這裏提供一些測試對比數據,分別是進行單條數據的導入與轉化成一條SQL語句進行導入,分別測試1百、1千、1萬條數據記錄。
spa


2. 在事務中進行插入處理。
把插入修改爲:
日誌

START TRANSACTION;
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
   VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)
    VALUES ('1', 'userid_1', 'content_1', 1);
...
COMMIT;

 

使用事務能夠提升數據的插入效率,這是由於進行一個INSERT操做時,MySQL內部會創建一個事務,在事務內才進行真正插入處理操做。經過使用事務能夠減小建立事務的消耗,全部插入都在執行後才進行提交操做。
這裏也提供了測試對比,分別是不使用事務與使用事務在記錄數爲1百、1千、1萬的狀況。


3. 數據有序插入。
數據有序的插入是指插入記錄在主鍵上是有序排列,例如datetime是記錄的主鍵:

 

 

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

 

    VALUES
('1',
'userid_1',
'content_1',
1);

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

    VALUES
('0',
'userid_0',
'content_0',
0);

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

    VALUES
('2',
'userid_2',
'content_2',2);

修改爲:

 


INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

    VALUES
('0',
'userid_0',
'content_0',
0);

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

   VALUES
('1',
'userid_1',
'content_1',
1);

INSERT
INTO
`insert_table`
(`datetime`,
`uid`,
`content`,
`type`)

    VALUES
('2',
'userid_2',
'content_2',2);

因爲數據庫插入時,須要維護索引數據,無序的記錄會增大維護索引的成本。咱們能夠參照innodb使用的B+tree索引,若是每次插入記錄都在索引的最後面,索引的定位效率很高,而且對索引調整較小;若是插入的記錄在索引中間,須要B+tree進行分裂合併等處理,會消耗比較多計算資源,而且插入記錄的索引定位效率會降低,數據量較大時會有頻繁的磁盤操做。
下面提供隨機數據與順序數據的性能對比,分別是記錄爲1百、1千、1萬、10萬、100萬。


從測試結果來看,該優化方法的性能有所提升,可是提升並非很明顯。
性能綜合測試:
這裏提供了同時使用上面三種方法進行INSERT效率優化的測試。
從測試結果能夠看到,合併數據+事務的方法在較小數據量時,性能提升是很明顯的,數據量較大時(1千萬以上),性能會急劇降低,這是因爲此時數據量超過了innodb_buffer的容量,每次定位索引涉及較多的磁盤讀寫操做,性能降低較快。而使用合併數據+事務+有序數據的方式在數據量達到千萬級以上表現依舊是良好,在數據量較大時,有序數據索引定位較爲方便,不須要頻繁對磁盤進行讀寫操做,因此能夠維持較高的性能。注意事項:1. SQL語句是有長度限制,在進行數據合併在同一SQL中務必不能超過SQL長度限制,經過max_allowed_packet配置能夠修改,默認是1M,測試時修改成8M。2. 事務須要控制大小,事務太大可能會影響執行的效率。MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的數據刷到磁盤中,這時,效率會有所降低。因此比較好的作法是,在數據達到這個這個值前進行事務提交。

相關文章
相關標籤/搜索