Mysql 性能優化教程

Mysql 性能優化教程前端

目錄

目錄 1node

背景及目標 2mysql

Mysql 執行優化 2ios

認識數據索引 2web

爲何使用數據索引能提升效率 2算法

如何理解數據索引的結構 2sql

優化實戰範例 3數據庫

認識影響結果集 4apache

影響結果集的獲取 4後端

影響結果集的解讀 4

常見案例及優化思路 5

理解執行狀態 7

常見關注重點 7

執行狀態分析 8

分析流程 9

常見案例解析 11

總結 12

Mysql 運維優化 14

存儲引擎類型 14

內存使用考量 14

性能與安全性考量 14

存儲/寫入壓力優化 15

運維監控體系 15

Mysql 架構優化 17

架構優化目標 17

防止單點隱患 17

方便系統擴容 17

安全可控,成本可控 17

分佈式方案 18

分庫&拆表方案 18

反範式設計(冗餘結構設計) 20

主從架構 21

故障轉移處理 22

緩存方案 22

緩存結合數據庫的讀取 22

緩存結合數據庫的寫入 23

總結 24

 

 

背景及目標

l 廈門遊家公司(4399.com)用於員工培訓和分享。

l 針對用戶羣爲已經使用過mysql環境,並有必定開發經驗的工程師

l 針對高併發,海量數據的互聯網環境。

l 本文語言爲口語,非學術標準用語。

l 以實戰和解決具體問題爲主要目標,非應試,很是規教育。友情提醒,在校生學習本教程可能對成績提升有害無益。

l 非技術挑戰,非高端架構師培訓,請高手自動忽略。

l 本文檔在20117-12月持續更新,增強了影響結果集分析的內容並增補優化實戰案例若干。

Mysql 執行優化

認識數據索引

爲何使用數據索引能提升效率

n 關係型數據庫的數據索引(Btree及常見索引結構)的存儲是有序的。

n 在有序的狀況下,經過索引查詢一個數據是無需遍歷索引記錄的

n 關係型數據庫數據索引的查詢效率趨近於二分法查詢效率,趨近於 log2(N)

n 極端狀況下(更新請求少,更新實時要求低,查詢請求頻繁),創建單向有序序列可替代數據索引。

n HASH索引的查詢效率是尋址操做,趨近於1次查詢,比有序索引查詢效率更高,可是不支持比對查詢,區間查詢,排序等操做,僅支持key-value類型查詢。不是本文重點。

如何理解數據索引的結構

n 數據索引一般默認採用btree索引,(內存表也使用了hash索引)。

n 僅就有序前提而言,單向有序排序序列是查找效率最高的(二分查找,或者說折半查找),使用樹形索引的目的是爲了達到快速的更新和增刪操做。

n 在極端狀況下(好比數據查詢需求量很是大,而數據更新需求極少,實時性要求不高,數據規模有限),直接使用單一排序序列,折半查找速度最快。

n 在進行索引分析和SQL優化時,能夠將數據索引字段想象爲單一有序序列,並以此做爲分析的基礎。涉及到複合索引狀況,複合索引按照索引順序拼湊成一個字段,想象爲單一有序序列,並以此做爲分析的基礎。

n 一條數據查詢只能使用一個索引,索引能夠是多個字段合併的複合索引。可是一條數據查詢不能使用多個索引。

優化實戰範例

l 實戰範例1: ip地址反查

n 資源: Ip地址對應表,源數據格式爲  startip, endip, area 

源數據條數爲 10萬條左右,呈很大的分散性

n 目標: 須要經過任意ip查詢該ip所屬地區

性能要求達到每秒1000次以上的查詢效率

n 挑戰: 如使用 between startip and endip 這樣的條件數據庫操做,由於涉及兩個字段的between and, 沒法有效使用索引。

若是每次查詢請求須要遍歷10萬條記錄,根本不行。

n 方法: 一次性排序(只在數據準備中進行,數據可存儲在內存序列)

折半查找(每次請求以折半查找方式進行)

l 實戰範例2:目標:查找與訪問者同一地區的異性,按照最後登陸時間逆序

n 挑戰:高訪問量社區的高頻查詢,如何優化。

查詢SQL: select * from user where area=’$area’ and sex=’$sex’ order by lastlogin desc limit 0,30;

創建複合索引並不難, area+sex+lastlogin 三個字段的複合索引,如何理解?

n 解讀:首先,忘掉btree,將索引字段理解爲一個排序序列。

另外,牢記數據查詢只能使用一個索引,每一個字段創建獨立索引的狀況下,也只能有一條索引被使用!

若是隻使用area會怎樣?搜索會把符合area的結果所有找出來,而後在這裏面遍歷,選擇命中sex的並排序。 遍歷全部 area=’$area’數據!

若是使用了area+sex,略好,仍然要遍歷全部area=’$area’ and sex=’$sex’數據,而後在這個基礎上排序!!

Area+sex+lastlogin複合索引時(切記lastlogin在最後),該索引基於area+sex+lastlogin 三個字段合併的結果排序,該列表能夠想象以下。

廣州女$時間1

廣州女$時間2

廣州女$時間3

廣州男

….

深圳女

….

數據庫很容易命中到 area+sex的邊界,而且基於下邊界向上追溯30條記錄,搞定!在索引中迅速命中全部結果,無需二次遍歷!

認識影響結果集

影響結果集的獲取

n 經過Explain 分析SQL,查看 rows 列內容

n 經過慢查詢日誌的Rows_examined: 後面的數字

n 影響結果集數字是查詢優化的重要中間數字,工程師在開發和調試過程當中,應隨時關注這一數字。

影響結果集的解讀

n 查詢條件與索引的關係決定影響結果集。

u 影響結果集不是輸出結果數,不是查詢返回的記錄數,而是索引所掃描的結果數。

u 範例 select * from user where area=’廈門’ and sex=’女’ 

l 假設 索引爲 area

l 假設User表中 area=’廈門’的有 125000條,而搜索返回結果爲60233條。

l 影響結果集是125000條,索引先命中125000條廈門用戶,再遍歷以sex=’女’進行篩選操做,獲得60233條結果。

l 若是該SQL 增長 limit 0,30的後綴。查詢時,先命中 area=’廈門’,而後依順序執行 sex=’女’ 篩選操做,直到知足能夠返回30條爲止,所涉及記錄數未知。除非知足條件的結果不足30條,不然不會遍歷125000條記錄。

l 可是若是SQL中涉及了排序操做,好比 order by lastlogin desc 再有limit 0,30時,排序須要遍歷全部area=’廈門’ 的記錄,而不是知足即止。

n 影響結果集越趨近於實際輸出或操做的目標結果集,索引效率越高。

n 影響結果集與查詢開銷的關係能夠理解爲線性相關。減小一半影響結果集,便可提高一倍查詢效率!當一條搜索query能夠符合多個索引時,選擇影響結果集最少的索引。

n SQL的優化,核心就是對結果集的優化,認識索引是加強對結果集的判斷,基於索引的認識,能夠在編寫SQL的時候,對該SQL可能的影響結果集有預判,並作出適當的優化和調整。

n Limit 的影響,須要斟酌對待

u 若是索引與查詢條件和排序條件徹底命中,影響結果集就是limit後面的數字($start + $end),好比 limit 200,30 影響結果集是230. 而不是30.

u 若是索引只命中部分查詢條件,甚至無命中條件,在無排序條件狀況下,會在索引命中的結果集 中遍歷到知足全部其餘條件爲止。好比 select * from user limit 10; 雖然沒用到索引,可是由於不涉及二次篩選和排序,系統直接返回前10條結果,影響結果集依然只有10條,就不存在效率影響。

u 若是搜索所包含的排序條件沒有被索引命中,則系統會遍歷是全部索引所命中的結果,而且排序。例如 Select * from user order by timeline desc limit 10; 若是timeline不是索引,影響結果集是全表,就存在須要全表數據排序,這個效率影響就巨大。再好比 Select * from user where area=’廈門’ order by timeline desc limit 10; 若是area是索引,而area+timeline未創建索引,則影響結果集是全部命中 area=’廈門’的用戶,而後在影響結果集內排序。 

 

常見案例及優化思路

n 毫秒級優化案例

u 某遊戲用戶進入後顯示最新動態,SQL爲 select * from userfeed where uid=$uid order by timeline desc limit 20; 主鍵爲$uid 。 該SQL天天執行數百萬次之多,高峯時數據庫負載較高。 經過 show processlist 顯示大量進程處於Sending data狀態。沒有慢查詢記錄。 仔細分析發現,因存在較多高頻用戶訪問,命中 uid=$uid的影響結果集一般在幾百到幾千,在上千條影響結果集狀況下,該SQL查詢開銷一般在0.01秒左右。 創建uid+timeline 複合索引,將排序引入到索引結構中,影響結果集就只有limit 後面的數字,該SQL查詢開銷銳減至0.001秒,數據庫負載驟降。

n Innodb鎖表案例

u 某遊戲數據庫使用了innodbinnodb是行級鎖,理論上不多存在鎖表狀況。出現了一個SQL語句(delete from tabname where xid=…),這個SQL很是用SQL,僅在特定狀況下出現,天天出現頻繁度不高(一天僅10次左右),數據表容量百萬級,可是這個xid未創建索引,因而悲慘的事情發生了,當執行這條delete 的時候,真正刪除的記錄很是少,也許一到兩條,也許一條都沒有;可是!因爲這個xid未創建索引,delete操做時遍歷全表記錄,全表被delete操做鎖定,select操做所有被locked,因爲百萬條記錄遍歷時間較長,期間大量select被阻塞,數據庫鏈接過多崩潰。

這種非高發請求,操做目標不多的SQL,因未使用索引,連帶致使整個數據庫的查詢阻塞,須要極大提升警覺。

n 實時排名策略優化

u 背景: 用戶提交遊戲積分,顯示實時排名。

u 原方案: 

l 提交積分是插入記錄,略, 

l select count(*) from jifen where gameid=$gameid and fenshu>$fenshu

u 問題與挑戰

l 即使索引是 gameid+fenshu 複合索引,涉及count操做,當分數較低時,影響結果集巨大,查詢效率緩慢,高峯期會致使鏈接過多。

u 優化思路

l 減小影響結果集,又要取得實時數據,單純從SQL上考慮,不太有方法。

l 將遊戲積分預約義分紅數個積分斷點,而後分紅積分區間,原始狀態,每一個區間設置一個統計數字項,初始爲0

l 每次積分提交時,先肯定該分數屬於哪兩個區間之間,這個操做很是簡單,由於區間是預約義的,並且數量不多,只需遍歷便可,找到最該分數符合的區間, 該區間的統計數字項(獨立字段,可用內存處理,異步回寫數據庫或文件)+1。 記錄該區間上邊界數字爲$duandian

l SQL:  select count(*) from jifen where gameid=$gameid and fenshu>$fenshu and fenshu<$duandian,若是處於第一區間,則無需$duandian,這樣由於第一區間自己也是最好的成績,影響結果集不會不少。 經過該SQL得到其在該區間的名次。

l 獲取前面區間的總數總和。(該數字是直接從上述提到的區間統計數字獲取,不須要進行count操做)將區間內名次+前區間的統計數字和,得到總名次。

l 該方法關鍵在於,積分區間須要合理定義,保證積分提交成績能平均散落在不一樣區間。

l 如涉及較多其餘條件,如日排行,總排行,以及其餘獨立用戶去重等,請按照影響結果集思路自行發揮。

u Redis方案

l Redis數據結構包括String,list,dict和Zset四種,在本案例中是很是好的替代數據庫的方案,本文檔只作簡介,不作額外擴展。

l String 哈希索引,key-value結構,主鍵查詢效率極高,不支持排序,比較查詢。

l List 隊列結構,在數據異步寫入處理中能夠替代memcache。

l Dict 數組結構,存儲結構化,序列化內容,能夠針對數組中的特定列進行操做。

l Zset 有序數組結構,分兩個子結構,第一是多層樹形的存儲結構,第二是每一個樹形節點的計數器,這樣相似於前面的分段方式,能夠理解爲多層分段方式,因此查詢效率更高,缺點是更新效率有所增長。

n 論壇翻頁優化

u 背景,常見論壇帖子頁 SQL: select * from post where tagid=$tagid order by lastpost limit $start, $end 翻頁 。索引爲 tagid+lastpost 複合索引

u 挑戰, 超級熱帖,幾萬回帖,用戶頻頻翻到末頁,limit 25770,30 一個操做下來,影響結果集巨大(25770+30),查詢緩慢。

u 解決方法:

l 只涉及上下翻頁狀況

n 每次查詢的時候將該頁查詢結果中最大的 $lastpost和最小的分別記錄爲 $minlastpost 和 $maxlastpost ,上翻頁查詢爲 select * from post where tagid=$tagid and lastpost<$minlastpost order by lastpost desc limit 30; 下翻頁爲 select * from post where tagid=$tagid and lastpost>$maxlastpost order by lastpost limit 30; 使用這種方式,影響結果集只有30條,效率極大提高。

l 涉及跳轉到任意頁

n 互聯網上常見的一個優化方案能夠這樣表述,select * from post where tagid=$tagid and lastpost>=(select lastpost from post where tagid=$tagid order by lastpost limit $start,1) order by lastpost limit 30; 或者 select * from post where pid in (select pid from post where tagid=$tagid order by lastpost limit $start,30); (第2條S語法在新的mysql版本已經不支持,新版本mysql in的子語句再也不支持limit條件,但能夠分解爲兩條SQL實現,原理不變,不作贅述)

n 以上思路在於,子查詢的影響結果集仍然是$start +30,可是數據獲取的過程(Sending data狀態)發生在索引文件中,而不是數據表文件,這樣所須要的系統開銷就比前一種普通的查詢低一個數量級,而主查詢的影響結果集只有30條,幾乎無開銷。可是切記,這裏仍然涉及了太多的影響結果集操做。

u 延伸問題:

l 來自於uchome典型查詢 SELECT * FROM uchome_thread WHERE tagid='73820'  ORDER BY displayorder DESC, lastpost DESC LIMIT $start,30; 

l 若是換用 如上方法,上翻頁代碼 SELECT * FROM uchome_thread WHERE tagid='73820'  and lastpost<$minlastpost ORDER BY displayorder DESC,lastpost DESC LIMIT 0,30; 下翻頁代碼SELECT * FROM uchome_thread WHERE tagid='73820'  and lastpost>$maxlastpost ORDER BY displayorder DESC, lastpost ASC LIMIT 0,30;

l 這裏涉及一個order by 索引可用性問題,當order by中 複合索引的字段,一個是ASC,一個是DESC 時,其排序沒法在索引中完成。 因此只有上翻頁能夠正確使用索引,影響結果集爲30。下翻頁沒法在排序中正確使用索引,會命中全部索引內容而後排序,效率低下。

l 總結:

n 基於影響結果集的理解去優化,不論從數據結構,代碼,仍是涉及產品策略上,都須要貫徹下去。

n 涉及 limit $start,$num的搜索,若是$start巨大,則影響結果集巨大,搜索效率會很是難太低,儘可能用其餘方式改寫爲 limit 0,$num; 確係沒法改寫的狀況下,先從索引結構中得到 limit $start,$num limit $start,1 ;再用in操做或基於索引序的 limit 0,$num 二次搜索。

n 請注意,我這裏永遠不會講關於外鍵和join的優化,由於在咱們的體系裏,這是根本不容許的! 架構優化部分會解釋爲何。

理解執行狀態

常見關注重點

l 慢查詢日誌,關注重點以下

n 是否鎖定,及鎖定時間

u 如存在鎖定,則該慢查詢一般是因鎖定因素致使,自己無需優化,需解決鎖定問題。

n 影響結果集

u 如影響結果集較大,顯然是索引項命中存在問題,須要認真對待。

l Explain 操做

n 索引項使用

u 不建議用using index作強制索引,如未如預期使用索引,建議從新斟酌表結構和索引設置。

n 影響結果集

u 這裏顯示的數字不必定準確,結合以前提到對數據索引的理解來看,還記得嘛?就把索引看成有序序列來理解,反思SQL

l Set profiling , show profiles for query操做

n 執行開銷

u 注意,有問題的SQL若是重複執行,可能在緩存裏,這時要注意避免緩存影響。經過這裏能夠看到。

u 執行時間超過0.005秒的頻繁操做SQL建議都分析一下。

u 深刻理解數據庫執行的過程和開銷的分佈

l Show processlist 執行狀態監控

n 這是在數據庫負載波動時常常進行的一項操做

n 具體參見以下

執行狀態分析

l Sleep 狀態 

n 一般表明資源未釋放,若是是經過鏈接池,sleep狀態應該恆定在必定數量範圍內

n 實戰範例: 因前端數據輸出時(特別是輸出到用戶終端)未及時關閉數據庫鏈接,致使因網絡鏈接速度產生大量sleep鏈接,在網速出現異常時,數據庫 too many connections 掛死。

n 簡單解讀,數據查詢和執行一般只須要不到0.01秒,而網絡輸出一般須要1秒左右甚至更長,本來數據鏈接在0.01秒便可釋放,可是由於前端程序未執行close操做,直接輸出結果,那麼在結果未展示在用戶桌面前,該數據庫鏈接一直維持在sleep狀態!

l Waiting for net, reading from net, writing to net

n 偶爾出現無妨

n 如大量出現,迅速檢查數據庫到前端的網絡鏈接狀態和流量

n 案例因外掛程序,內網數據庫大量讀取,內網使用的百兆交換迅速爆滿,致使大量鏈接阻塞在waiting for net,數據庫鏈接過多崩潰

l Locked狀態

n 有更新操做鎖定

n 一般使用innodb能夠很好的減小locked狀態的產生,可是切記,更新操做要正確使用索引,即使是低頻次更新操做也不能疏忽。如上影響結果集範例所示。

n 在myisam的時代,locked是不少高併發應用的噩夢。因此mysql官方也開始傾向於推薦innodb

l Copy to tmp table

n 索引及現有結構沒法涵蓋查詢條件,纔會創建一個臨時表來知足查詢要求,產生巨大的恐怖的i/o壓力。

n 很可怕的搜索語句會致使這樣的狀況,若是是數據分析,或者半夜的週期數據清理任務,偶爾出現,能夠容許。頻繁出現務必優化之。

n Copy to tmp table 一般與連表查詢有關,建議逐漸習慣不使用連表查詢。

n 實戰範例:

u 某社區數據庫阻塞,求救,經查,其服務器存在多個數據庫應用和網站,其中一個不經常使用的小網站數據庫產生了一個恐怖的copy to tmp table 操做,致使整個硬盤i/ocpu壓力超載。Kill掉該操做一切恢復。

l Sending data

n Sending data 並非發送數據,別被這個名字所欺騙,這是從物理磁盤獲取數據的進程,若是你的影響結果集較多,那麼就須要從不一樣的磁盤碎片去抽取數據,

n 偶爾出現該狀態鏈接無礙。

n 回到上面影響結果集的問題,通常而言,若是sending data鏈接過多,一般是某查詢的影響結果集過大,也就是查詢的索引項不夠優化。

n 前文提到影響結果集對SQL查詢效率線性相關,主要就是針對這個狀態的系統開銷。

n 若是出現大量類似的SQL語句出如今show proesslist列表中,而且都處於sending data狀態,優化查詢索引,記住用影響結果集的思路去思考。

l Storing result to query cache

n 出現這種狀態,若是頻繁出現,使用set profiling分析,若是存在資源開銷在SQL總體開銷的比例過大(即使是很是小的開銷,看比例),則說明query cache碎片較多

n 使用flush query cache 可即時清理,也能夠作成定時任務

n Query cache參數可適當酌情設置。

l Freeing items

n 理論上這玩意不會出現不少。偶爾出現無礙

n 若是大量出現,內存,硬盤可能已經出現問題。好比硬盤滿或損壞。

n i/o壓力過大時,也可能出現Free items執行時間較長的狀況。

l Sorting for …

n 和Sending data相似,結果集過大,排序條件沒有索引化,須要在內存裏排序,甚至須要建立臨時結構排序。

l 其餘

n 還有不少狀態,遇到了,去查查資料。基本上咱們遇到其餘狀態的阻塞較少,因此不關心。

分析流程

l 基本流程

n 詳細瞭解問題情況

u Too many connections 是常見表象,有不少種緣由。

u 索引損壞的狀況在innodb狀況下不多出現。

u 如出現其餘狀況應追溯日誌和錯誤信息。

n 瞭解基本負載情況和運營情況

u 基本運營情況

l 當前每秒讀請求

l 當前每秒寫請求

l 當前在線用戶

l 當前數據容量

u 基本負載狀況

l 學會使用這些指令

n Top 

n Vmstat

n uptime 

n iostat 

n df 

l Cpu負載構成

n 特別關注i/o壓力( wa%)

n 多核負載分配

l 內存佔用

n Swap分區是否被侵佔

n 如Swap分區被侵佔,物理內存是否較多空閒

l 磁盤狀態

n 硬盤滿和inode節點滿的狀況要迅速定位和迅速處理

n 瞭解具體鏈接情況

u 當前鏈接數 

l Netstat –an|grep 3306|wc –l

l Show processlist

u 當前鏈接分佈 show processlist

l 前端應用請求數據庫不要使用root賬號!

n Root賬號比其餘普通賬號多一個鏈接數許可。

n 前端使用普通賬號,在too many connections的時候root賬號仍能夠登陸數據庫查詢 show processlist!

n 記住,前端應用程序不要設置一個不叫rootroot賬號來糊弄!非root帳戶是骨子裏的,而不是名義上的。

l 狀態分佈

n 不一樣狀態表明不一樣的問題,有不一樣的優化目標。

n 參見如上範例。

l 雷同SQL的分佈

n 是否較多雷同SQL出如今同一狀態

u 當前是否有較多慢查詢日誌

l 是否鎖定

l 影響結果集

n 頻繁度分析

u 寫頻繁度

l 若是i/o壓力高,優先分析寫入頻繁度

l Mysqlbinlog 輸出最新binlog文件,編寫腳本拆分

l 最多寫入的數據表是哪一個

l 最多寫入的數據SQL是什麼

l 是否存在基於同一主鍵的數據內容高頻重複寫入?

n 涉及架構優化部分,參見架構優化-緩存異步更新

u 讀取頻繁度

l 若是cpu資源較高,而i/o壓力不高,優先分析讀取頻繁度

l 程序中在封裝的db類增長抽樣日誌便可,抽樣比例酌情考慮,以不顯著影響系統負載壓力爲底線。

l 最多讀取的數據表是哪一個

l 最多讀取的數據SQL是什麼

n 該SQL進行explain set profiling斷定

n 注意斷定時須要避免query cache影響

u 好比,在這個SQL末尾增長一個條件子句 and 1=1 就能夠避免從query cache中獲取數據,而獲得真實的執行狀態分析。 

l 是否存在同一個查詢短時間內頻繁出現的狀況

n 涉及前端緩存優化

n 抓大放小,解決顯著問題

u 不苛求解決全部優化問題,可是應以保證線上服務穩定可靠爲目標。

u 解決與評估要同時進行,新的策略或解決方案務必通過評估後上線。

常見案例解析

l 現象:服務器出現too many connections 阻塞

n 入手點:

u 查看服務器狀態,cpu佔用,內存佔用,硬盤佔用,硬盤i/o壓力

u 查看網絡流量狀態,mysql與應用服務器的輸入輸出情況

u 經過Show processlist查看當前運行清單

l 注意事項,平常應用程序鏈接數據庫不要使用root帳戶,保證故障時能夠經過root 進入數據庫查看 show processlist

n 狀態分析:

u 參見如上執行狀態清單,根據鏈接狀態的分佈去肯定緣由。

n 緊急恢復

u 在肯定故障緣由後,應經過kill掉阻塞進程的方式 當即恢復數據庫。

n 善後處理

u 如下針對常見問題簡單解讀

u Sleep 鏈接過多致使,應用端及時釋放鏈接,排查關聯因素。

u Locked鏈接過多,如源於myisam表級鎖,更innodb引擎;如源於更新操做使用了不恰當的索引或未使用索引,改寫更新操做SQL或創建恰當索引。

u Sending data鏈接過多,用影響結果集的思路優化SQL查詢,優化表索引結構。

u Free items鏈接過多,i/o壓力過大 或硬盤故障

u Waiting for net , writing to net 鏈接過多, mysql與應用服務器鏈接阻塞。

u 其餘仍參見如上執行狀態清單所示分析。

u 如涉及不十分嚴格安全要求的數據內容,可用按期腳本跟蹤請求進程,並kill掉僵死進程。如數據安全要求較嚴格,則不能如此進行。

l 現象:數據庫負載太高,響應緩慢。

n 入手點:

u 查看cpu狀態,服務器負載構成

n 分支1i/o佔用太高。

u 步驟1: 檢查內存是否佔用swap分區,排除因內存不足致使的i/o開銷。

u 步驟2:經過iostat 指令分析i/o是否集中於數據庫硬盤,是不是寫入度較高。

u 步驟3:若是壓力來自於寫,使用mysqlbinlog 解開最新的binlog文件。

u 步驟4:編寫日誌分析腳本或grep指令,分析每秒寫入頻度和寫入內容。

l 寫入頻度不高,則說明i/o壓力另有緣由或數據庫配置不合理。

u 步驟5:編寫日誌分析腳本或grep 指令,分析寫入的數據表構成,和寫入的目標構成。

u 步驟6:編寫日誌分析腳本,分析是否存在同一主鍵的重複寫入。 好比出現大量 update post set views=views+1 where tagid=****的操做,假設在一段時間內出現了2萬次,而其中不一樣的tagid1萬次,那麼就是有50%的請求是重複update請求,有能夠經過異步更新合併的空間。

u 提示一下,以上所說起的日誌分析腳本編寫,正常狀況下不該超過1個小時,而對系統負載分析所提供的數據支持價值是巨大的,對性能優化方案的選擇是很是有意義的,若是您認爲這項工做是繁冗並且複雜的工做,那麼必定是在分析思路和目標把握上出現了誤差。

n 分支2i/o佔用不高,CPU 佔用太高

u 步驟1:查看慢查詢日誌

u 步驟2:不斷刷新查看Show processlist清單,並把握可能頻繁出現的處於Sending data狀態的SQL

u 步驟3:記錄前端執行SQL

l 於前端應用程序執行查詢的封裝對象內,設置隨機採樣,記錄前端執行的SQL,保證有必定的樣本規模,而且不會帶來前端i/o負載的激增。

l 基於採樣率和記錄頻率,得到每秒讀請求次數數據指標。

l 編寫日誌分析腳本,分析採樣的SQL構成,所操做的數據表,所操做的主鍵。

l 對頻繁重複讀取的SQL(徹底一致的SQL)進行斷定,是否數據存在頻繁變更,是否須要實時展示最新數據,若有可能,緩存化,並預估緩存命中率。

l 對頻繁讀取但不重複的(SQL結構一致,但條件中的數據不一致)SQL進行斷定,是否索引足夠優化,影響結果集與輸出結果是否足夠接近。

u 步驟4:將致使慢查詢的SQL或頻繁出現於show processlist狀態的SQL,或採樣記錄的頻繁度SQL進行分析,按照影響結果集的思路和索引理解來優化。

u 步驟5:對如上難以界定問題的SQL進行 set profiling 分析。

u 步驟6:優化後分析繼續採樣跟蹤分析。並跟蹤比對結果。

n 善後處理

u 平常跟蹤腳本,不斷記錄一些狀態信息。保證每一個時間節點都能回溯。

u 確保隨時能瞭解服務器的請求頻次,讀寫請求的分佈。

u 記錄一些未形成致命影響的隱患點,可暫不解決,但須要記錄。

u 如確係服務器請求頻次太高,可基於負載分佈決定硬件擴容方案,好比i/o壓力太高可考慮固態硬盤;內存佔用swap可考慮增長內容容量等。用盡量少的投入實現最好的負載支撐能力,而不是簡單的買更多服務器。

總結

l 要學會怎樣分析問題,而不是單純拍腦殼優化

l 慢查詢只是最基礎的東西,要學會優化0.01秒的查詢請求。

l 當發生鏈接阻塞時,不一樣狀態的阻塞有不一樣的緣由,要找到緣由,若是不對症下藥,就會南轅北轍

n 範例:若是自己系統內存已經超載,已經使用到了swap,而還在考慮加大緩存來優化查詢,那就是自尋死路了。

l 影響結果集是很是重要的中間數據和優化指標,學會理解這一律念,理論上影響結果集與查詢效率呈現很是緊密的線性相關。

l 監測與跟蹤要常常作,而不是出問題才作

n 讀取頻繁度抽樣監測

u 全監測不要搞,i/o嚇死人。

u 按照一個抽樣比例抽樣便可。

u 針對抽樣中發現的問題,能夠按照特定SQL在特定時間內監測一段全查詢記錄,但仍要考慮i/o影響。

n 寫入頻繁度監測

u 基於binlog解開便可,可定時或不定時分析。

n 微慢查詢抽樣監測

u 高併發狀況下,查詢請求時間超過0.01秒甚至0.005秒的,建議酌情抽樣記錄。

n 鏈接數預警監測

u 鏈接數超過特定閾值的狀況下,雖然數據庫沒有崩潰,建議記錄相關鏈接狀態。

l 學會經過數據和監控發現問題,分析問題,然後解決問題瓜熟蒂落。特別是要學會在平常監控中發現隱患,而不是問題爆發了纔去處理和解決。


Mysql 運維優化

存儲引擎類型

l Myisam 速度快,響應快。表級鎖是致命問題。

l Innodb 目前主流存儲引擎

n 行級鎖 

u 務必注意影響結果集的定義是什麼

u 行級鎖會帶來更新的額外開銷,可是一般狀況下是值得的。

n 事務提交 

u 對i/o效率提高的考慮

u 對安全性的考慮

l HEAP 內存引擎

n 頻繁更新和海量讀取狀況下仍會存在鎖定情況

內存使用考量

l 理論上,內存越大,越多數據讀取發生在內存,效率越高

l Query cache的使用

n 若是前端請求重複度不高,或者應用層已經充分緩存重複請求,query cache沒必要設置很大,甚至能夠不設置。

n 若是前端請求重複度較高,無應用層緩存,query cache是一個很好的偷懶選擇

u 對於中等如下規模數據庫應用,偷懶不是一個壞選擇。

u 若是確認使用query cache,記得定時清理碎片,flush query cache.

l 要考慮到現實的硬件資源和瓶頸分佈

l 學會理解熱點數據,並將熱點數據儘量內存化

n 所謂熱點數據,就是最多被訪問的數據。

n 一般數據庫訪問是不平均的,少數數據被頻繁讀寫,而更多數據鮮有讀寫。

n 學會制定不一樣的熱點數據規則,並測算指標。

u 熱點數據規模,理論上,熱點數據越少越好,這樣能夠更好的知足業務的增加趨勢。

u 響應知足度,對響應的知足率越高越好。

u 好比依據最後更新時間,總訪問量,回訪次數等指標定義熱點數據,並測算不一樣定義模式下的熱點數據規模

性能與安全性考量

l 數據提交方式

n innodb_flush_log_at_trx_commit = 1 每次自動提交,安全性高,i/o壓力大

n innodb_flush_log_at_trx_commit = 2 每秒自動提交,安全性略有影響,i/o承載強。

l 日誌同步

n Sync-binlog =1 每條自動更新,安全性高,i/o壓力大

n Sync-binlog = 0 根據緩存設置狀況自動更新,存在丟失數據和同步延遲風險,i/o承載力強。

n 我的建議保存binlog日誌文件,便於追溯 更新操做和系統恢復。

n 如對日誌文件的i/o壓力有擔憂,在內存寬裕的狀況下,可考慮將binlog 寫入到諸如 /dev/shm 這樣的內存映射分區,並定時將舊有的binlog轉移到物理硬盤。

l 性能與安全自己存在相悖的狀況,須要在業務訴求層面決定取捨

n 學會區分什麼場合側重性能,什麼場合側重安全

n 學會將不一樣安全等級的數據庫用不一樣策略管理

存儲/寫入壓力優化

l 順序讀寫性能遠高於隨機讀寫

l 將順序寫數據和隨機讀寫數據分紅不一樣的物理磁盤進行,有助於i/o壓力的疏解

  • 數據庫文件涉及索引等內容,寫入是隨即寫
  • binlog文件是順序寫
  • 淘寶數據庫存儲優化是這樣處理的

l 部分安全要求不高的寫入操做能夠用 /dev/shm 分區存儲,簡單變成內存寫。

l 多塊物理硬盤作raid10,能夠提高寫入能力

l 關鍵存儲設備優化,善於比對不一樣存儲介質的壓力測試數據。

  • 例如fusion-io在新浪和淘寶都有較多使用。

l 涉及必須存儲較爲龐大的數據量時

  • 壓縮存儲,能夠經過增長cpu開銷(壓縮算法)減小i/o壓力。前提是你確認cpu相對空閒而i/o壓力很大。 新浪微博就是壓縮存儲的典範。
  • 經過md5去重存儲,案例是QQ的文件共享,以及dropbox這樣的共享服務,若是你上傳的是一個別人已有的文件,計算md5後,直接經過md5定位到原有文件,這樣能夠極大減小存儲量。涉及文件共享,頭像共享,相冊等應用,經過這種方法能夠減小超過70%的存儲規模,對硬件資源的節省是至關巨大的。缺點是,刪除文件須要甄別該md5是否有其餘人使用。 去重存儲,用戶量越多,上傳文件越多,效率越高!
  • 文件儘可能不要存儲到數據庫內。儘可能使用獨立的文件系統存儲,該話題不展開。

運維監控體系

l 系統監控

n 服務器資源監控

u Cpu, 內存,硬盤空間,i/o壓力

u 設置閾值報警

n 服務器流量監控

u 外網流量,內網流量

u 設置閾值報警

n 鏈接狀態監控

u Show processlist 設置閾值,每分鐘監測,超過閾值記錄

l 應用監控

n 慢查詢監控

u 慢查詢日誌

u 若是存在多臺數據庫服務器,應有彙總查閱機制。

n 請求錯誤監控

u 高頻繁應用中,會出現偶發性數據庫鏈接錯誤或執行錯誤,將錯誤信息記錄到日誌,查看每日的比例變化。

u 偶發性錯誤,若是數量極少,能夠不用處理,可是需時常監控其趨勢。

u 會存在惡意輸入內容,輸入邊界限定缺少致使執行出錯,需基於此防止惡意入侵探測行爲。

n 微慢查詢監控

u 高併發環境裏,超過0.01秒的查詢請求都應該關注一下。

n 頻繁度監控

u 寫操做,基於binlog,按期分析。

u 讀操做,在前端db封裝代碼中增長抽樣日誌,並輸出執行時間。

u 分析請求頻繁度是開發架構 進一步優化的基礎

u 最好的優化就是減小請求次數!

l 總結:

n 監控與數據分析是一切優化的基礎。

n 沒有運營數據監測就不要妄談優化!

n 監控要注意不要產生太多額外的負載,不要因監控帶來太多額外系統開銷


Mysql 架構優化

架構優化目標

防止單點隱患

l 所謂單點隱患,就是某臺設備出現故障,會致使總體系統的不可用,這個設備就是單點隱患。

l 理解連帶效應,所謂連帶效應,就是一種問題會引起另外一種故障,舉例而言,memcache+mysql是一種常見緩存組合,在前端壓力很大時,若是memcache崩潰,理論上數據會經過mysql讀取,不存在系統不可用狀況,可是mysql沒法對抗如此大的壓力衝擊,會所以連帶崩潰。因A系統問題致使B系統崩潰的連帶問題,在運維過程當中會頻繁出現。

n 實戰範例: 在mysql鏈接不及時釋放的應用環境裏,當網絡環境異常(同機房友鄰服務器遭受拒絕服務攻擊,出口阻塞),網絡延遲加重,空鏈接數急劇增長,致使數據庫鏈接過多崩潰。

n 實戰範例2:前端代碼 一般咱們封裝 mysql_connectmemcache_connect,兩者的順序不一樣,會產生不一樣的連帶效應。若是mysql_connect在前,那麼一旦memcache鏈接阻塞,會連帶mysql空鏈接過多崩潰。

n 連帶效應是常見的系統崩潰,平常分析崩潰緣由的時候須要認真考慮連帶效應的影響,頭疼醫頭,腳疼醫腳是不行的。

方便系統擴容

l 數據容量增長後,要考慮可以將數據分佈到不一樣的服務器上。

l 請求壓力增長時,要考慮將請求壓力分佈到不一樣服務器上。

l 擴容設計時須要考慮防止單點隱患。

安全可控,成本可控

l 數據安全,業務安全

l 人力資源成本>帶寬流量成本>硬件成本

n 成本與流量的關係曲線應低於線性增加(流量爲橫軸,成本爲縱軸)。

n 規模優點

l 本教程僅就與數據庫有關部分討論,與數據庫無關部門請自行參閱其餘學習資料。

 

分佈式方案

分庫&拆表方案

l 基本認識

n 用分庫&拆表是解決數據庫容量問題的惟一途徑。

n 分庫&拆表也是解決性能壓力的最優選擇。

n 分庫 – 不一樣的數據表放到不一樣的數據庫服務器中(也多是虛擬服務器)

n 拆表 – 一張數據表拆成多張數據表,可能位於同一臺服務器,也可能位於多臺服務器(含虛擬服務器)。

l 去關聯化原則

n 摘除數據表之間的關聯,是分庫的基礎工做。

n 摘除關聯的目的是,當數據表分佈到不一樣服務器時,查詢請求容易分發和處理。

n 學會理解反範式數據結構設計,所謂反範式,第一要點是不用外鍵,不容許Join操做,不容許任何須要跨越兩個表的查詢請求。第二要點是適度冗餘減小查詢請求,好比說,信息表,fromuid, touid, message字段外,還須要一個fromuname字段記錄用戶名,這樣查詢者經過touid查詢後,可以當即獲得發信人的用戶名,而無需進行另外一個數據表的查詢。

n 去關聯化處理會帶來額外的考慮,好比說,某一個數據表內容的修改,對另外一個數據表的影響。這一點須要在程序或其餘途徑去考慮。

l 分庫方案

n 安全性拆分

u 將高安全性數據與低安全性數據分庫,這樣的好處第一是便於維護,第二是高安全性數據的數據庫參數配置能夠以安全優先,而低安全性數據的參數配置以性能優先。參見運維優化相關部分。

n 基於業務邏輯拆分

u 根據數據表的內容構成,業務邏輯拆分,便於平常維護和前端調用。

u 基於業務邏輯拆分,能夠減小前端應用請求發送到不一樣數據庫服務器的頻次,從而減小連接開銷。

u 基於業務邏輯拆分,可保留部分數據關聯,前端web工程師可在限度範圍內執行關聯查詢。

n 基於負載壓力拆分

u 基於負載壓力對數據結構拆分,便於直接將負載分擔給不一樣的服務器。

u 基於負載壓力拆分,可能拆分後的數據庫包含不一樣業務類型的數據表,平常維護會有必定的煩惱。

n 混合拆分組合

u 基於安全與業務拆分爲數據庫實例,可是可使用不一樣端口放在同一個服務器上。

u 基於負載能夠拆分爲更多數據庫實例分佈在不一樣數據庫上

u 例如,

l 基於安全拆分出A數據庫實例,

l 基於業務拆分出B,C數據庫實例,

l C數據庫存在較高負載,基於負載拆分爲C1,C2,C3,C4等 實例。

l 數據庫服務器徹底能夠作到 A+B+C1 爲一臺,C2,C3,C4各單獨一臺。

 

l 分表方案

n 數據量過大或者訪問壓力過大的數據表須要切分

n 縱向分表(常見爲忙閒分表)

u 單數據表字段過多,可將頻繁更新的整數數據與非頻繁更新的字符串數據切分

u 範例 user表 ,我的簡介,地址,QQ號,聯繫方式,頭像 這些字段爲字符串類型,更新請求少; 最後登陸時間,在線時常,訪問次數,信件數這些字段爲整數型字段,更新頻繁,能夠將後面這些更新頻繁的字段獨立拆出一張數據表,表內容變少,索引結構變少,讀寫請求變快。

n 橫向切表

u 等分切表,如哈希切表或其餘基於對某數字取餘的切表。等分切表的優勢是負載很方便的分佈到不一樣服務器;缺點是當容量繼續增長時沒法方便的擴容,須要從新進行數據的切分或轉表。並且一些關鍵主鍵不易處理。

u 遞增切表,好比每1kw用戶開一個新表,優勢是能夠適應數據的自增趨勢;缺點是每每新數據負載高,壓力分配不平均。

u 日期切表,適用於日誌記錄式數據,優缺點等同於遞增切表。

u 我的傾向於遞增切表,具體根據應用場景決定。

n 熱點數據分表

u 將數據量較大的數據表中將讀寫頻繁的數據抽取出來,造成熱點數據表。一般一個龐大數據表常常被讀寫的內容每每具備必定的集中性,若是這些集中數據單獨處理,就會極大減小總體系統的負載。

u 熱點數據表與舊有數據關係

l 能夠是一張冗餘表,即該表數據丟失不會妨礙使用,因源數據仍存在於舊有結構中。優勢是安全性高,維護方便,缺點是寫壓力不能分擔,仍須要同步寫回原系統。

l 能夠是非冗餘表,即熱點數據的內容原有結構再也不保存,優勢是讀寫效率所有優化;缺點是當熱點數據發生變化時,維護量較大。

l 具體方案選擇須要根據讀寫比例決定,在讀頻率遠高於寫頻率狀況下,優先考慮冗餘表方案。

u 熱點數據表能夠用單獨的優化的硬件存儲,好比昂貴的閃存卡或大內存系統。

u 熱點數據表的重要指標

l 熱點數據的定義須要根據業務模式自行制定策略,常見策略爲,按照最新的操做時間;按照內容豐富度等等。

l 數據規模,好比從1000萬條數據,抽取出100萬條熱點數據。

l 熱點命中率,好比查詢10次,多少次命中在熱點數據內。

l 理論上,數據規模越小,熱點命中率越高,說明效果越好。須要根據業務自行評估。

u 熱點數據表的動態維護

l 加載熱點數據方案選擇

n 定時從舊有數據結構中按照新的策略獲取

n 在從舊有數據結構讀取時動態加載到熱點數據

l 剔除熱點數據方案選擇

n 基於特定策略,定時將熱點數據中訪問頻次較少的數據剔除

n 如熱點數據是冗餘表,則直接刪除便可,如不是冗餘表,須要回寫給舊有數據結構。

u 一般,熱點數據每每是基於緩存或者key-value 方案冗餘存儲,因此這裏提到的熱點數據表,其實更可能是理解思路,用到的場合可能並很少….

反範式設計(冗餘結構設計)

l 反範式設計的概念

n 無外鍵,無連表查詢。

n 便於分佈式設計,容許適度冗餘,爲了容量擴展容許適度開銷。

n 基於業務自由優化,基於i/o 或查詢設計,無須遵循範式結構設計。

l 冗餘結構設計所面臨的典型場景

n 原有展示程序涉及多個表的查詢,但願精簡查詢程序

n 數據表拆分每每基於主鍵,而原有數據表每每存在非基於主鍵的關鍵查詢,沒法在分表結構中完成。

n 存在較多數據統計需求(count, sum等),效率低下。

l 冗餘設計方案

n 基於展示的冗餘設計

u 爲了簡化展示程序,在一些數據表中每每存在冗餘字段

u 舉例,信息表  message,存在字段 fromuid,touid,msg,sendtime  四個字段,其中 touid+sendtime是複合索引。存在查詢爲 select * from message where touid=$uid order by sendtime desc  limit 0,30;

u 展現程序須要顯示發送者姓名,此時一般會在message表中增長字段fromusername,甚至有的會增長fromusersex,從而無需連表查詢直接輸出信息的發送者姓名和性別。這就是一種簡單的,爲了不連表查詢而使用的冗餘字段設計。

n 基於查詢的冗餘設計

u 涉及分表操做後,一些常見的索引查詢可能須要跨表,帶來沒必要要的麻煩。確認查詢請求遠大於寫入請求時,應設置便於查詢項的冗餘表。

u 冗餘表要點

l 數據一致性,簡單說,同增,同刪,同更新。

l 能夠作全冗餘,或者只作主鍵關聯的冗餘,好比經過用戶名查詢uid,再基於uid查詢源表。

u 實戰範例1

l 用戶分表,將用戶庫分紅若干數據表

l 基於用戶名的查詢和基於uid的查詢都是高併發請求。

l 用戶分表基於uid分紅數據表,同時基於用戶名作對應冗餘表。

l 若是容許多方式登錄,能夠有以下設計方法

n uid,passwd,用戶信息等等,主數據表,基於uid 分表

n ukey,ukeytype,uid 基於ukey分表,便於用戶登錄的查詢。分解成以下兩個SQL。

u select uid from ulist_key_13 where ukey=’$username’ and ukeytype=‘login’;

u select * from ulist_uid_23 where uid=$uid and passwd=’$passwd’;

n ukeytype定義用戶的登錄依據,好比用戶名,手機號,郵件地址,網站暱稱等。 Ukey+ukeytype 必須惟一。

n 此種方式須要登錄密碼統一,對於第三方connect接入模式,能夠經過引伸額外字段完成。

u 實戰範例2:用戶遊戲積分排名

l 表結構 uid,gameid,score 參見前文實時積分排行。表內容巨大,須要拆表。

l 需求1:基於遊戲id查詢積分排行

l 需求2:基於用戶id查詢遊戲積分記錄

l 解決方案:創建徹底相同的兩套表結構,其一以uid爲拆表主鍵,其二以gameid爲拆表主鍵,用戶提交積分時,向兩個數據結構同時提交。

u 實戰範例3:全冗餘查詢結構

l 主信息表僅包括 主鍵及備註memo 字段(text類型),只支持主鍵查詢,能夠基於主鍵拆表。因此須要展示和存儲的內容均在memo字段重體現。

l 對每個查詢條件,創建查詢冗餘表,以查詢條件字段爲主鍵,以主信息表主鍵id 爲內容。

l 平常查詢只基於查詢冗餘表,而後經過in的方式從主信息表得到內容。

l 優勢是結構擴展很是方便,只須要擴展新的查詢信息表便可,核心思路是,只有查詢才須要獨立的索引結構,展示無需獨立字段。

l 缺點是隻適合於相對固定的查詢架構,對於更加靈活的組合查詢一籌莫展。

n 基於統計的冗餘結構

u 爲了減小會涉及大規模影響結果集的表數據操做,好比countsum操做。應將一些統計類數據經過冗餘數據結構保存。

u 冗餘數據結構可能以字段方式存在,也可能以獨立數據表結構存在,可是都應能經過源數據表恢復。

u 實戰範例:

l 論壇板塊的發帖量,回帖量,每日新增數據等。

l 網站每日新增用戶數等。

l 參見Discuz論壇系統數據結構,有較多相關結構。

l 參見前文分段積分結構,是典型用於統計的冗餘結構。

l 後臺能夠經過源數據表更新該數字。

l Redis的Zset類型能夠理解爲存在一種冗餘統計結構。

n 歷史數據表

u 歷史數據表對應於熱點數據表,將需求較少又不能丟棄的數據存入,僅在少數狀況下被訪問。

主從架構

l 基本認識

n 讀寫分離對負載的減輕遠遠不如分庫分表來的直接。

n 寫壓力會傳遞給從表,只讀從庫同樣有寫壓力,同樣會產生讀寫鎖!

n 一主多從結構下,主庫是單點隱患,很難解決(如主庫當機,從庫能夠響應讀寫,可是沒法自動擔當主庫的分發功能)

n 主從延遲也是重大問題。一旦有較大寫入問題,如表結構更新,主從會產生巨大延遲。

l 應用場景

n 在線熱備

n 異地分佈

u 寫分佈,讀統一。

u 仍然困難重重,受限於網絡環境問題巨多!

n 自動障礙轉移

u 主崩潰,從自動接管

n 我的建議,負載均衡主要使用分庫方案,主從主要用於熱備和障礙轉移。

l 潛在優化點

n 爲了減小寫壓力,有些人建議主不建索引提高i/o性能,從創建索引知足查詢要求。我的認爲這樣維護較爲麻煩。並且從自己會繼承主的i/o壓力,所以優化價值有限。該思路特此分享,不作推薦。

故障轉移處理

l 要點

n 程序與數據庫的鏈接,基於虛地址而非真實ip,由負載均衡系統監控。

n 保持主從結構的簡單化,不然很難作到故障點摘除。

l 思考方式

n 遍歷對服務器集羣的任何一臺服務器,前端web,中間件,監控,緩存,db等等,假設該服務器出現故障,系統是否會出現異常?用戶訪問是否會出現異常。

n 目標:任意一臺服務器崩潰,負載和數據操做均會很短期內自動轉移到其餘服務器,不會影響業務的正常進行。不會形成惡性的數據丟失。(哪些是能夠丟失的,哪些是不能丟失的)

緩存方案

緩存結合數據庫的讀取

l Memcached是最經常使用的緩存系統

l Mysql 最新版本已經開始支持memcache插件,但據牛人分析,尚不成熟,暫不推薦。

l 數據讀取

n 並非全部數據都適合被緩存,也並非進入了緩存就意味着效率提高。

n 命中率是第一要評估的數據。

n 如何評估進入緩存的數據規模,以及命中率優化,是很是須要細心分析的。

l 實景分析: 前端請求先鏈接緩存,緩存未命中鏈接數據庫,進行查詢,未命中狀態比單純鏈接數據庫查詢多了一次鏈接和查詢的操做;若是緩存命中率很低,則這個額外的操做非但不能提升查詢效率,反而爲系統帶來了額外的負載和複雜性,得不償失。

n 相關評估相似於熱點數據表的介紹。

n 善於利用內存,請注意數據存儲的格式及壓縮算法。

l Key-value 方案繁多,本培訓文檔暫不展開。

緩存結合數據庫的寫入

l 利用緩存不但能夠減小數據讀取請求,還能夠減小數據庫寫入i/o壓力

l 緩存實時更新,數據庫異步更新

n 緩存實時更新數據,並將更新記錄寫入隊列

n 可使用相似mq的隊列產品,自行創建隊列請注意使用increment來維持隊列序號。

n 不建議使用 get 後處理數據再set的方式維護隊列

l 測試範例:

l 範例

$var=Memcache_get($memcon,」var」);

 $var++;

memcache_set($memcon,」var」,$var);

這樣一個腳本,使用apache ab去跑,100個併發,跑10000次,而後輸出緩存存取的數據,很遺憾,並非1000,而是5000多,6000多這樣的數字,中間的數字全在 get & set的過程當中丟掉了。

緣由,讀寫間隔中其餘併發寫入,致使數據丟失。

l 範例2

memcache_increment來作這個操做,一樣跑測試

會獲得完整的10000,一條數據不會丟。

l 結論: 用increment存儲隊列編號,用標記+編號做爲key存儲隊列內容。

n 後臺基於緩存隊列讀取更新數據並更新數據庫

l 基於隊列讀取後能夠合併更新

l 更新合併率是重要指標

l 實戰範例:

某論壇熱門貼,前端不斷有views=views+1數據更新請求。

緩存實時更新該狀態

後臺任務對數據庫作異步更新時,假設執行週期是5分鐘,那麼五分鐘可能會接收到這樣的請求多達數十次乃至數百次,合併更新後只執行一次update便可。

相似操做還包括遊戲打怪,生命和經驗的變化;我的主頁訪問次數的變化等。

n 異步更新風險

l 先後端同時寫,可能致使覆蓋風險。

l 使用後端異步更新,則前端應用程序就不要寫數據庫,不然可能形成寫入衝突。一種兼容的解決方案是,前端和後端不要寫相同的字段。

l 實戰範例:

用戶在線上時,後臺異步更新用戶狀態。

管理員後臺屏蔽用戶是直接更新數據庫。

結果管理員屏蔽某用戶操做完成後,因該用戶在線有操做,後臺異步更新程序再次基於緩存更新用戶狀態,用戶狀態被複活,屏蔽失效。

l 緩存數據丟失或服務崩潰可能致使數據丟失風險。

l 如緩存中間出現故障,則緩存隊列數據不會回寫到數據庫,而用戶會認爲已經完成,此時會帶來比較明顯的用戶體驗問題。

l 一個不完全的解決方案是,確保高安全性,高重要性數據實時數據更新,而低安全性數據經過緩存異步回寫方式完成。此外,使用相對數值操做而不是絕對數值操做更安全。

n 範例:支付信息,道具的購買與得到,一旦丟失會對用戶形成極大的傷害。而經驗值,訪問數字,若是隻丟失了不多時間的內容,用戶仍是能夠容忍的。

n 範例:若是使用 Views=Views+…的操做,一旦出現數據格式錯誤,從binlog中反推是能夠進行數據還原,可是若是使用Views=特定值的操做,一旦緩存中數據有錯誤,則直接被賦予了一個錯誤數據,沒法回溯!

l 異步更新如出現隊列阻塞可能致使數據丟失風險。

l 異步更新一般是使用緩存隊列後,在後臺由cron或其餘守護進程寫入數據庫。

l 若是隊列生成的速度>後臺更新寫入數據庫的速度,就會產生阻塞,致使數據越累計越多,數據庫響應遲緩,而緩存隊列沒法迅速執行,致使溢出或者過時失效。

n 建議使用內存隊列產品而不使用memcache 來進行緩存異步更新。

總結

    • 第一步,完成數據庫查詢的優化,須要理解索引結構,才能學會判斷影響結果集。而影響結果集對查詢效率線性相關,掌握這一點,編寫數據查詢語句就很容易判斷系統開銷,瞭解業務壓力趨勢。
    • 第二步,在SQL語句已經足夠優化的基礎上,學會對數據庫總體情況的分析,可以對異常和負載的波動有正確的認識和解讀;可以對系統資源的分配和瓶頸有正確的認識。
    • 學會經過監控和數據來進行系統的評估和優化方案設計,杜絕拍腦殼,學會抓大放小,把握要點的處理方法。
    • 第三步,在完全掌握數據庫語句優化和運維優化的基礎上,學會分佈式架構設計,掌握複雜,大容量數據庫系統的搭建方法。
    • 最後,分享一句話,學會把問題簡單化,正如Caoz 常說的,你若是認爲這個問題很複雜,你必定想錯了。
    • 感謝您的閱讀,如對您有幫助,請在百度文庫給本文五分好評,並推薦給您的朋友,多謝。
相關文章
相關標籤/搜索