最近研發的項目對DB依賴比較重,梳理了這段時間使用MySQL遇到的8個比較具備表明性的問題,答案也比較偏本身的開發實踐,沒有DBA專業和深刻,有出入的請使勁拍磚!...sql
這裏作了幾個簡單壓測實驗
機器:8核CPU,8G內存
表結構(儘可能模擬業務):12個字段(1個bigint(20)爲自增primary key,5個int(11),5個varchar(512),1個timestamp),InnoDB存儲引擎。
實驗1(寫):insert => 6000/s
前提:鏈接數100,每次insert單條記錄
分析:CPU跑了50%,這時磁盤爲順序寫,故性能較高數據庫
實驗2(寫):update(where條件命中索引) => 200/s
前提:鏈接數100,10w條記錄,每次update單條記錄的4個字段(2個int(11),2個varchar(512))
分析:CPU跑2%,瓶頸明顯在IO的隨機寫緩存
實驗3(讀):select(where條件命中索引) => 5000/s
前提:鏈接數100,10w條記錄,每次select單條記錄的4個字段(2個int(11),2個varchar(512))
分析:CPU跑6%,瓶頸在IO,和db的cache大小相關安全
實驗4(讀):select(where條件沒命中索引) => 60/s
前提:鏈接數100,10w條記錄,每次select單條記錄的4個字段(2個int(11),2個varchar(512))
分析:CPU跑到80%,每次select都需遍歷全部記錄,看來索引的效果很是明顯!網絡
幾個重要的配置參數,可根據實際的機器和業務特色調整
max_connecttions
:最大鏈接數
table_cache
:緩存打開表的數量
key_buffer_size
:索引緩存大小
query_cache_size
:查詢緩存大小
sort_buffer_size
:排序緩存大小(會將排序完的數據緩存起來)
read_buffer_size
:順序讀緩存大小
read_rnd_buffer_size
:某種特定順序讀緩存大小(如order by子句的查詢)
PS:查看配置方法:show variables like '%max_connecttions%'
;數據結構
方法:慢查詢日誌分析(MySQLdumpslow)併發
慢查詢日誌例子,可看到每一個慢查詢SQL的耗時:異步
# User@Host: edu_online[edu_online] @ [10.139.10.167] # Query_time: 1.958000 Lock_time: 0.000021 Rows_sent: 254786 Rows_examined: 254786 SET timestamp=1410883292; select * from t_online_group_records;
日誌顯示該查詢用了1.958秒,返回254786行記錄,一共遍歷了254786行記錄。及具體的時間戳和SQL語句。ide
使用MySQLdumpslow進行慢查詢日誌分析
MySQLdumpslow -s t -t 5 slow_log_20140819.txt
輸出查詢耗時最多的Top5條SQL語句
-s:排序方法,t表示按時間 (此外,c爲按次數,r爲按返回記錄數等)
-t:去Top多少條,-t 5表示取前5條
執行完分析結果以下:函數
Count: 1076100 Time=0.09s (99065s) Lock=0.00s (76s) Rows=408.9 (440058825), edu_online[edu_online]@28hosts select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > N Count: 1076099 Time=0.05s (52340s) Lock=0.00s (91s) Rows=62.6 (67324907), edu_online[edu_online]@28hosts select * from t_online_course where UNIX_TIMESTAMP(c_updatetime) > N Count: 63889 Time=0.78s (49607s) Lock=0.00s (3s) Rows=0.0 (18), edu_online[edu_online]@[10x.213.1xx.1xx] select f_uin from t_online_student_contact where f_modify_time > N Count: 1076097 Time=0.02s (16903s) Lock=0.00s (72s) Rows=52.2 (56187090), edu_online[edu_online]@28hosts select * from t_online_video_info where UNIX_TIMESTAMP(v_update_time) > N Count: 330046 Time=0.02s (6822s) Lock=0.00s (45s) Rows=0.0 (2302), edu_online[edu_online]@4hosts select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime from t_kick_log where unix_timestamp(update_time) > N
以第1條爲例,表示這類SQL(N能夠取不少值,這裏MySQLdumpslow會歸併起來)在8月19號的慢查詢日誌內出現了1076100次,總耗時99065秒,總返回440058825行記錄,有28個客戶端IP用到。
經過慢查詢日誌分析,就能夠找到最耗時的SQL,而後進行具體的SQL分析了
慢查詢相關的配置參數
log_slow_queries
:是否打開慢查詢日誌,得先確保=ON後面纔有得分析
long_query_time
:查詢時間大於多少秒的SQL被當作是慢查詢,通常設爲1S
log_queries_not_using_indexes
:是否將沒有使用索引的記錄寫入慢查詢日誌
slow_query_log_file
:慢查詢日誌存放路徑
使用Explain分析SQL語句執行計劃
MySQL> explain select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra | +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ | 1 | SIMPLE | t_online_group_records | ALL | NULL | NULL | NULL | NULL | 47 | Using where | +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ 1 row in set (0.00 sec)
如上面例子所示,重點關注下type,rows和Extra:
type:使用類別,有無使用到索引。結果值從好到壞:... > range(使用到索引) > index > ALL(全表掃描),通常查詢應達到range級別
rows:SQL執行檢查的記錄數
Extra:SQL執行的附加信息,如"Using index"表示查詢只用到索引列,不須要去讀表等
使用Profiles分析SQL語句執行時間和消耗資源
MySQL> set profiling=1; (啓動profiles,默認是沒開啓的) MySQL> select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; (執行要分析的SQL語句) MySQL> show profiles; +----------+------------+----------------------------------------------------------------------------------------------+ | Query_ID | Duration | Query | +----------+------------+----------------------------------------------------------------------------------------------+ | 1 | 0.00043250 | select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789 | +----------+------------+----------------------------------------------------------------------------------------------+ 1 row in set (0.00 sec) MySQL> show profile cpu,block io for query 1; (可看出SQL在各個環節的耗時和資源消耗) +----------------------+----------+----------+------------+--------------+---------------+ | Status | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out | +----------------------+----------+----------+------------+--------------+---------------+ ... | optimizing | 0.000016 | 0.000000 | 0.000000 | 0 | 0 | | statistics | 0.000020 | 0.000000 | 0.000000 | 0 | 0 | | preparing | 0.000017 | 0.000000 | 0.000000 | 0 | 0 | | executing | 0.000011 | 0.000000 | 0.000000 | 0 | 0 | | Sending data | 0.000076 | 0.000000 | 0.000000 | 0 | 0 | ...
SQL優化的技巧 (只提一些業務常遇到的問題)
最關鍵:索引,避免全表掃描。
對接觸的項目進行慢查詢分析,發現TOP10的基本都是忘了加索引或者索引使用不當,如索引字段上加函數致使索引失效等(如where UNIX_TIMESTAMP(gre_updatetime)>123456789
)
+----------+------------+---------------------------------------+ | Query_ID | Duration | Query | +----------+------------+---------------------------------------+ | 1 | 0.00024700 | select * from mytable where id=100 | | 2 | 0.27912900 | select * from mytable where id+1=101 | +----------+------------+---------------------------------------+
另外不少同窗在拉取全表數據時,喜歡用select xx from xx limit 5000,1000這種形式批量拉取,其實這個SQL每次都是全表掃描,建議添加1個自增id作索引,將SQL改成select xx from xx where id>5000 and id<6000
;
+----------+------------+-----------------------------------------------------+ | Query_ID | Duration | Query | +----------+------------+-----------------------------------------------------+ | 1 | 0.00415400 | select * from mytable where id>=90000 and id<=91000 | | 2 | 0.10078100 | select * from mytable limit 90000,1000 | +----------+------------+-----------------------------------------------------+
合理用好索引,應該可解決大部分SQL問題。固然索引也非越多越好,過多的索引會影響寫操做性能
只select出須要的字段,避免select
+----------+------------+-----------------------------------------------------+ | Query_ID | Duration | Query | +----------+------------+-----------------------------------------------------+ | 1 | 0.02948800 | select count(1) from ( select id from mytable ) a | | 2 | 1.34369100 | select count(1) from ( select * from mytable ) a | +----------+------------+-----------------------------------------------------+
儘可能早作過濾,使Join或者Union等後續操做的數據量儘可能小
把能在邏輯層算的提到邏輯層來處理,如一些數據排序、時間函數計算等
.......
PS:關於SQL優化,已經有足夠多文章了,因此就不講太全面了,只重點說本身1個感覺:索引!基本都是由於索引!
下面是我能想到的幾個方法,每一個方法又都是一篇大文章了,這裏就不展開
分庫分表
使用集羣(master-slave),讀寫分離
增長業務的cache層
使用鏈接池
複製機制(Replication)
master經過複製機制,將master的寫操做經過binlog傳到slave生成中繼日誌(relaylog),slave再將中繼日誌redo,使得主庫和從庫的數據保持同步
複製相關的3個MySQL線程
屬於slave主動請求拉取的模式
實際使用可能遇到的問題
數據非強一致:CDB默認爲異步複製,master和slave的數據會有必定延遲(稱爲主從同步距離,通常 < 1s)
主從同步距離變大:多是DB寫入壓力大,也多是slave機器負載高,網絡波動等緣由,具體問題具體分析
相關監控命令
show processlist
:查看MySQL進程信息,包括3個同步線程的當前狀態
show master status
:查看master配置及當前複製信息
show slave status
:查看slave配置及當前複製信息
業務側應作到的幾點:
重要DB數據的手工修改操做,操做前需作到2點:1 先在測試環境操做 2 備份數據
根據業務重要性作定時備份,考慮系統可承受的恢復時間
進行容災演練,感受很必要
MySQL備份和恢復操做
1.備份:使用MySQLdump導出數據
MySQLdump -u 用戶名 -p 數據庫名 [表名] > 導出的文件名 MySQLdump -uxxx -p xxx mytable > mytable.20140921.bak.sql
2.恢復:導入備份數據
MySQL -uxxx -p xxxx < mytable.20140921.bak.sql
3.恢復:導入備份數據以後發送的寫操做。先使用MySQLbinlog導出這部分寫操做SQL(基於時間點或位置)
如導出2014-09-21 09:59:59以後的binlog:
MySQLbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql
如導出起始id爲123456以後的binlog:
MySQLbinlog --database="test" --start-position="123456" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql
最後把要恢復的binlog導入db
MySQL -uxxxx -p xxxx < binlog.data.sql
存儲引擎簡介
插件式存儲引擎是MySQL的重要特性,MySQL支持多種存儲引擎以知足用戶的多種應用場景
存儲引擎解決的問題:如何組織MySQL數據在介質中高效地讀取,需考慮存儲機制、索引設計、併發讀寫的鎖機制等
MySQL5.0支持的存儲引擎有MyISAM、InnoDB、Memory、Merge等
**MyISAM和InnoDB的區別(只說重點了)
使用show engines可查看當前MySQL支持的存儲引擎詳情
非專業DBA,這裏只簡單貼個結構圖說明下。MySQL是開源系統,其設計思路和源代碼都出自大牛之手,有空能夠學習下。