Mysql 性能優化教程前端
目錄 1node
背景及目標 2mysql
Mysql 執行優化 2ios
認識數據索引 2web
爲何使用數據索引能提升效率 2算法
如何理解數據索引的結構 2sql
優化實戰範例 3數據庫
認識影響結果集 4apache
影響結果集的獲取 4後端
影響結果集的解讀 4
常見案例及優化思路 5
理解執行狀態 7
常見關注重點 7
執行狀態分析 8
分析流程 9
常見案例解析 11
總結 12
Mysql 運維優化 14
存儲引擎類型 14
內存使用考量 14
性能與安全性考量 14
存儲/寫入壓力優化 15
運維監控體系 15
Mysql 架構優化 17
架構優化目標 17
防止單點隱患 17
方便系統擴容 17
安全可控,成本可控 17
分佈式方案 18
分庫&拆表方案 18
反範式設計(冗餘結構設計) 20
主從架構 21
故障轉移處理 22
緩存方案 22
緩存結合數據庫的讀取 22
緩存結合數據庫的寫入 23
總結 24
l 廈門遊家公司(4399.com)用於員工培訓和分享。
l 針對用戶羣爲已經使用過mysql環境,並有必定開發經驗的工程師
l 針對高併發,海量數據的互聯網環境。
l 本文語言爲口語,非學術標準用語。
l 以實戰和解決具體問題爲主要目標,非應試,很是規教育。友情提醒,在校生學習本教程可能對成績提升有害無益。
l 非技術挑戰,非高端架構師培訓,請高手自動忽略。
l 本文檔在2011年7月-12月持續更新,增強了影響結果集分析的內容並增補優化實戰案例若干。
n 關係型數據庫的數據索引(Btree及常見索引結構)的存儲是有序的。
n 在有序的狀況下,經過索引查詢一個數據是無需遍歷索引記錄的
n 關係型數據庫數據索引的查詢效率趨近於二分法查詢效率,趨近於 log2(N)。
n 極端狀況下(更新請求少,更新實時要求低,查詢請求頻繁),創建單向有序序列可替代數據索引。
n HASH索引的查詢效率是尋址操做,趨近於1次查詢,比有序索引查詢效率更高,可是不支持比對查詢,區間查詢,排序等操做,僅支持key-value類型查詢。不是本文重點。
n 數據索引一般默認採用btree索引,(內存表也使用了hash索引)。
n 僅就有序前提而言,單向有序排序序列是查找效率最高的(二分查找,或者說折半查找),使用樹形索引的目的是爲了達到快速的更新和增刪操做。
n 在極端狀況下(好比數據查詢需求量很是大,而數據更新需求極少,實時性要求不高,數據規模有限),直接使用單一排序序列,折半查找速度最快。
n 在進行索引分析和SQL優化時,能夠將數據索引字段想象爲單一有序序列,並以此做爲分析的基礎。涉及到複合索引狀況,複合索引按照索引順序拼湊成一個字段,想象爲單一有序序列,並以此做爲分析的基礎。
n 一條數據查詢只能使用一個索引,索引能夠是多個字段合併的複合索引。可是一條數據查詢不能使用多個索引。
l 實戰範例1: ip地址反查
n 資源: Ip地址對應表,源數據格式爲 startip, endip, area
源數據條數爲 10萬條左右,呈很大的分散性
n 目標: 須要經過任意ip查詢該ip所屬地區
性能要求達到每秒1000次以上的查詢效率
n 挑戰: 如使用 between startip and endip 這樣的條件數據庫操做,由於涉及兩個字段的between and, 沒法有效使用索引。
若是每次查詢請求須要遍歷10萬條記錄,根本不行。
n 方法: 一次性排序(只在數據準備中進行,數據可存儲在內存序列)
折半查找(每次請求以折半查找方式進行)
l 實戰範例2:目標:查找與訪問者同一地區的異性,按照最後登陸時間逆序
n 挑戰:高訪問量社區的高頻查詢,如何優化。
查詢SQL: select * from user where area=’$area’ and sex=’$sex’ order by lastlogin desc limit 0,30;
創建複合索引並不難, area+sex+lastlogin 三個字段的複合索引,如何理解?
n 解讀:首先,忘掉btree,將索引字段理解爲一個排序序列。
另外,牢記數據查詢只能使用一個索引,每一個字段創建獨立索引的狀況下,也只能有一條索引被使用!
若是隻使用area會怎樣?搜索會把符合area的結果所有找出來,而後在這裏面遍歷,選擇命中sex的並排序。 遍歷全部 area=’$area’數據!
若是使用了area+sex,略好,仍然要遍歷全部area=’$area’ and sex=’$sex’數據,而後在這個基礎上排序!!
Area+sex+lastlogin複合索引時(切記lastlogin在最後),該索引基於area+sex+lastlogin 三個字段合併的結果排序,該列表能夠想象以下。
廣州女$時間1
廣州女$時間2
廣州女$時間3
…
廣州男
….
深圳女
….
數據庫很容易命中到 area+sex的邊界,而且基於下邊界向上追溯30條記錄,搞定!在索引中迅速命中全部結果,無需二次遍歷!
n 經過Explain 分析SQL,查看 rows 列內容
n 經過慢查詢日誌的Rows_examined: 後面的數字
n 影響結果集數字是查詢優化的重要中間數字,工程師在開發和調試過程當中,應隨時關注這一數字。
n 查詢條件與索引的關係決定影響結果集。
u 影響結果集不是輸出結果數,不是查詢返回的記錄數,而是索引所掃描的結果數。
u 範例 select * from user where area=’廈門’ and sex=’女’
l 假設 索引爲 area
l 假設User表中 area=’廈門’的有 125000條,而搜索返回結果爲60233條。
l 影響結果集是125000條,索引先命中125000條廈門用戶,再遍歷以sex=’女’進行篩選操做,獲得60233條結果。
l 若是該SQL 增長 limit 0,30的後綴。查詢時,先命中 area=’廈門’,而後依順序執行 sex=’女’ 篩選操做,直到知足能夠返回30條爲止,所涉及記錄數未知。除非知足條件的結果不足30條,不然不會遍歷125000條記錄。
l 可是若是SQL中涉及了排序操做,好比 order by lastlogin desc 再有limit 0,30時,排序須要遍歷全部area=’廈門’ 的記錄,而不是知足即止。
n 影響結果集越趨近於實際輸出或操做的目標結果集,索引效率越高。
n 影響結果集與查詢開銷的關係能夠理解爲線性相關。減小一半影響結果集,便可提高一倍查詢效率!當一條搜索query能夠符合多個索引時,選擇影響結果集最少的索引。
n SQL的優化,核心就是對結果集的優化,認識索引是加強對結果集的判斷,基於索引的認識,能夠在編寫SQL的時候,對該SQL可能的影響結果集有預判,並作出適當的優化和調整。
n Limit 的影響,須要斟酌對待
u 若是索引與查詢條件和排序條件徹底命中,影響結果集就是limit後面的數字($start + $end),好比 limit 200,30 影響結果集是230. 而不是30.
u 若是索引只命中部分查詢條件,甚至無命中條件,在無排序條件狀況下,會在索引命中的結果集 中遍歷到知足全部其餘條件爲止。好比 select * from user limit 10; 雖然沒用到索引,可是由於不涉及二次篩選和排序,系統直接返回前10條結果,影響結果集依然只有10條,就不存在效率影響。
u 若是搜索所包含的排序條件沒有被索引命中,則系統會遍歷是全部索引所命中的結果,而且排序。例如 Select * from user order by timeline desc limit 10; 若是timeline不是索引,影響結果集是全表,就存在須要全表數據排序,這個效率影響就巨大。再好比 Select * from user where area=’廈門’ order by timeline desc limit 10; 若是area是索引,而area+timeline未創建索引,則影響結果集是全部命中 area=’廈門’的用戶,而後在影響結果集內排序。
n 毫秒級優化案例
u 某遊戲用戶進入後顯示最新動態,SQL爲 select * from userfeed where uid=$uid order by timeline desc limit 20; 主鍵爲$uid 。 該SQL天天執行數百萬次之多,高峯時數據庫負載較高。 經過 show processlist 顯示大量進程處於Sending data狀態。沒有慢查詢記錄。 仔細分析發現,因存在較多高頻用戶訪問,命中 uid=$uid的影響結果集一般在幾百到幾千,在上千條影響結果集狀況下,該SQL查詢開銷一般在0.01秒左右。 創建uid+timeline 複合索引,將排序引入到索引結構中,影響結果集就只有limit 後面的數字,該SQL查詢開銷銳減至0.001秒,數據庫負載驟降。
n Innodb鎖表案例
u 某遊戲數據庫使用了innodb,innodb是行級鎖,理論上不多存在鎖表狀況。出現了一個SQL語句(delete from tabname where xid=…),這個SQL很是用SQL,僅在特定狀況下出現,天天出現頻繁度不高(一天僅10次左右),數據表容量百萬級,可是這個xid未創建索引,因而悲慘的事情發生了,當執行這條delete 的時候,真正刪除的記錄很是少,也許一到兩條,也許一條都沒有;可是!因爲這個xid未創建索引,delete操做時遍歷全表記錄,全表被delete操做鎖定,select操做所有被locked,因爲百萬條記錄遍歷時間較長,期間大量select被阻塞,數據庫鏈接過多崩潰。
這種非高發請求,操做目標不多的SQL,因未使用索引,連帶致使整個數據庫的查詢阻塞,須要極大提升警覺。
n 實時排名策略優化
u 背景: 用戶提交遊戲積分,顯示實時排名。
u 原方案:
l 提交積分是插入記錄,略,
l select count(*) from jifen where gameid=$gameid and fenshu>$fenshu
u 問題與挑戰
l 即使索引是 gameid+fenshu 複合索引,涉及count操做,當分數較低時,影響結果集巨大,查詢效率緩慢,高峯期會致使鏈接過多。
u 優化思路
l 減小影響結果集,又要取得實時數據,單純從SQL上考慮,不太有方法。
l 將遊戲積分預約義分紅數個積分斷點,而後分紅積分區間,原始狀態,每一個區間設置一個統計數字項,初始爲0。
l 每次積分提交時,先肯定該分數屬於哪兩個區間之間,這個操做很是簡單,由於區間是預約義的,並且數量不多,只需遍歷便可,找到最該分數符合的區間, 該區間的統計數字項(獨立字段,可用內存處理,異步回寫數據庫或文件)+1。 記錄該區間上邊界數字爲$duandian。
l SQL: select count(*) from jifen where gameid=$gameid and fenshu>$fenshu and fenshu<$duandian,若是處於第一區間,則無需$duandian,這樣由於第一區間自己也是最好的成績,影響結果集不會不少。 經過該SQL得到其在該區間的名次。
l 獲取前面區間的總數總和。(該數字是直接從上述提到的區間統計數字獲取,不須要進行count操做)將區間內名次+前區間的統計數字和,得到總名次。
l 該方法關鍵在於,積分區間須要合理定義,保證積分提交成績能平均散落在不一樣區間。
l 如涉及較多其餘條件,如日排行,總排行,以及其餘獨立用戶去重等,請按照影響結果集思路自行發揮。
u Redis方案
l Redis數據結構包括String,list,dict和Zset四種,在本案例中是很是好的替代數據庫的方案,本文檔只作簡介,不作額外擴展。
l String 哈希索引,key-value結構,主鍵查詢效率極高,不支持排序,比較查詢。
l List 隊列結構,在數據異步寫入處理中能夠替代memcache。
l Dict 數組結構,存儲結構化,序列化內容,能夠針對數組中的特定列進行操做。
l Zset 有序數組結構,分兩個子結構,第一是多層樹形的存儲結構,第二是每一個樹形節點的計數器,這樣相似於前面的分段方式,能夠理解爲多層分段方式,因此查詢效率更高,缺點是更新效率有所增長。
n 論壇翻頁優化
u 背景,常見論壇帖子頁 SQL: select * from post where tagid=$tagid order by lastpost limit $start, $end 翻頁 。索引爲 tagid+lastpost 複合索引
u 挑戰, 超級熱帖,幾萬回帖,用戶頻頻翻到末頁,limit 25770,30 一個操做下來,影響結果集巨大(25770+30),查詢緩慢。
u 解決方法:
l 只涉及上下翻頁狀況
n 每次查詢的時候將該頁查詢結果中最大的 $lastpost和最小的分別記錄爲 $minlastpost 和 $maxlastpost ,上翻頁查詢爲 select * from post where tagid=$tagid and lastpost<$minlastpost order by lastpost desc limit 30; 下翻頁爲 select * from post where tagid=$tagid and lastpost>$maxlastpost order by lastpost limit 30; 使用這種方式,影響結果集只有30條,效率極大提高。
l 涉及跳轉到任意頁
n 互聯網上常見的一個優化方案能夠這樣表述,select * from post where tagid=$tagid and lastpost>=(select lastpost from post where tagid=$tagid order by lastpost limit $start,1) order by lastpost limit 30; 或者 select * from post where pid in (select pid from post where tagid=$tagid order by lastpost limit $start,30); (第2條S語法在新的mysql版本已經不支持,新版本mysql in的子語句再也不支持limit條件,但能夠分解爲兩條SQL實現,原理不變,不作贅述)
n 以上思路在於,子查詢的影響結果集仍然是$start +30,可是數據獲取的過程(Sending data狀態)發生在索引文件中,而不是數據表文件,這樣所須要的系統開銷就比前一種普通的查詢低一個數量級,而主查詢的影響結果集只有30條,幾乎無開銷。可是切記,這裏仍然涉及了太多的影響結果集操做。
u 延伸問題:
l 來自於uchome典型查詢 SELECT * FROM uchome_thread WHERE tagid='73820' ORDER BY displayorder DESC, lastpost DESC LIMIT $start,30;
l 若是換用 如上方法,上翻頁代碼 SELECT * FROM uchome_thread WHERE tagid='73820' and lastpost<$minlastpost ORDER BY displayorder DESC,lastpost DESC LIMIT 0,30; 下翻頁代碼SELECT * FROM uchome_thread WHERE tagid='73820' and lastpost>$maxlastpost ORDER BY displayorder DESC, lastpost ASC LIMIT 0,30;
l 這裏涉及一個order by 索引可用性問題,當order by中 複合索引的字段,一個是ASC,一個是DESC 時,其排序沒法在索引中完成。 因此只有上翻頁能夠正確使用索引,影響結果集爲30。下翻頁沒法在排序中正確使用索引,會命中全部索引內容而後排序,效率低下。
l 總結:
n 基於影響結果集的理解去優化,不論從數據結構,代碼,仍是涉及產品策略上,都須要貫徹下去。
n 涉及 limit $start,$num的搜索,若是$start巨大,則影響結果集巨大,搜索效率會很是難太低,儘可能用其餘方式改寫爲 limit 0,$num; 確係沒法改寫的狀況下,先從索引結構中得到 limit $start,$num 或limit $start,1 ;再用in操做或基於索引序的 limit 0,$num 二次搜索。
n 請注意,我這裏永遠不會講關於外鍵和join的優化,由於在咱們的體系裏,這是根本不容許的! 架構優化部分會解釋爲何。
l 慢查詢日誌,關注重點以下
n 是否鎖定,及鎖定時間
u 如存在鎖定,則該慢查詢一般是因鎖定因素致使,自己無需優化,需解決鎖定問題。
n 影響結果集
u 如影響結果集較大,顯然是索引項命中存在問題,須要認真對待。
l Explain 操做
n 索引項使用
u 不建議用using index作強制索引,如未如預期使用索引,建議從新斟酌表結構和索引設置。
n 影響結果集
u 這裏顯示的數字不必定準確,結合以前提到對數據索引的理解來看,還記得嘛?就把索引看成有序序列來理解,反思SQL。
l Set profiling , show profiles for query操做
n 執行開銷
u 注意,有問題的SQL若是重複執行,可能在緩存裏,這時要注意避免緩存影響。經過這裏能夠看到。
u 執行時間超過0.005秒的頻繁操做SQL建議都分析一下。
u 深刻理解數據庫執行的過程和開銷的分佈
l Show processlist 執行狀態監控
n 這是在數據庫負載波動時常常進行的一項操做
n 具體參見以下
l Sleep 狀態
n 一般表明資源未釋放,若是是經過鏈接池,sleep狀態應該恆定在必定數量範圍內
n 實戰範例: 因前端數據輸出時(特別是輸出到用戶終端)未及時關閉數據庫鏈接,致使因網絡鏈接速度產生大量sleep鏈接,在網速出現異常時,數據庫 too many connections 掛死。
n 簡單解讀,數據查詢和執行一般只須要不到0.01秒,而網絡輸出一般須要1秒左右甚至更長,本來數據鏈接在0.01秒便可釋放,可是由於前端程序未執行close操做,直接輸出結果,那麼在結果未展示在用戶桌面前,該數據庫鏈接一直維持在sleep狀態!
l Waiting for net, reading from net, writing to net
n 偶爾出現無妨
n 如大量出現,迅速檢查數據庫到前端的網絡鏈接狀態和流量
n 案例: 因外掛程序,內網數據庫大量讀取,內網使用的百兆交換迅速爆滿,致使大量鏈接阻塞在waiting for net,數據庫鏈接過多崩潰
l Locked狀態
n 有更新操做鎖定
n 一般使用innodb能夠很好的減小locked狀態的產生,可是切記,更新操做要正確使用索引,即使是低頻次更新操做也不能疏忽。如上影響結果集範例所示。
n 在myisam的時代,locked是不少高併發應用的噩夢。因此mysql官方也開始傾向於推薦innodb。
l Copy to tmp table
n 索引及現有結構沒法涵蓋查詢條件,纔會創建一個臨時表來知足查詢要求,產生巨大的恐怖的i/o壓力。
n 很可怕的搜索語句會致使這樣的狀況,若是是數據分析,或者半夜的週期數據清理任務,偶爾出現,能夠容許。頻繁出現務必優化之。
n Copy to tmp table 一般與連表查詢有關,建議逐漸習慣不使用連表查詢。
n 實戰範例:
u 某社區數據庫阻塞,求救,經查,其服務器存在多個數據庫應用和網站,其中一個不經常使用的小網站數據庫產生了一個恐怖的copy to tmp table 操做,致使整個硬盤i/o和cpu壓力超載。Kill掉該操做一切恢復。
l Sending data
n Sending data 並非發送數據,別被這個名字所欺騙,這是從物理磁盤獲取數據的進程,若是你的影響結果集較多,那麼就須要從不一樣的磁盤碎片去抽取數據,
n 偶爾出現該狀態鏈接無礙。
n 回到上面影響結果集的問題,通常而言,若是sending data鏈接過多,一般是某查詢的影響結果集過大,也就是查詢的索引項不夠優化。
n 前文提到影響結果集對SQL查詢效率線性相關,主要就是針對這個狀態的系統開銷。
n 若是出現大量類似的SQL語句出如今show proesslist列表中,而且都處於sending data狀態,優化查詢索引,記住用影響結果集的思路去思考。
l Storing result to query cache
n 出現這種狀態,若是頻繁出現,使用set profiling分析,若是存在資源開銷在SQL總體開銷的比例過大(即使是很是小的開銷,看比例),則說明query cache碎片較多
n 使用flush query cache 可即時清理,也能夠作成定時任務
n Query cache參數可適當酌情設置。
l Freeing items
n 理論上這玩意不會出現不少。偶爾出現無礙
n 若是大量出現,內存,硬盤可能已經出現問題。好比硬盤滿或損壞。
n i/o壓力過大時,也可能出現Free items執行時間較長的狀況。
l Sorting for …
n 和Sending data相似,結果集過大,排序條件沒有索引化,須要在內存裏排序,甚至須要建立臨時結構排序。
l 其餘
n 還有不少狀態,遇到了,去查查資料。基本上咱們遇到其餘狀態的阻塞較少,因此不關心。
l 基本流程
n 詳細瞭解問題情況
u Too many connections 是常見表象,有不少種緣由。
u 索引損壞的狀況在innodb狀況下不多出現。
u 如出現其餘狀況應追溯日誌和錯誤信息。
n 瞭解基本負載情況和運營情況
u 基本運營情況
l 當前每秒讀請求
l 當前每秒寫請求
l 當前在線用戶
l 當前數據容量
u 基本負載狀況
l 學會使用這些指令
n Top
n Vmstat
n uptime
n iostat
n df
l Cpu負載構成
n 特別關注i/o壓力( wa%)
n 多核負載分配
l 內存佔用
n Swap分區是否被侵佔
n 如Swap分區被侵佔,物理內存是否較多空閒
l 磁盤狀態
n 硬盤滿和inode節點滿的狀況要迅速定位和迅速處理
n 瞭解具體鏈接情況
u 當前鏈接數
l Netstat –an|grep 3306|wc –l
l Show processlist
u 當前鏈接分佈 show processlist
l 前端應用請求數據庫不要使用root賬號!
n Root賬號比其餘普通賬號多一個鏈接數許可。
n 前端使用普通賬號,在too many connections的時候root賬號仍能夠登陸數據庫查詢 show processlist!
n 記住,前端應用程序不要設置一個不叫root的root賬號來糊弄!非root帳戶是骨子裏的,而不是名義上的。
l 狀態分佈
n 不一樣狀態表明不一樣的問題,有不一樣的優化目標。
n 參見如上範例。
l 雷同SQL的分佈
n 是否較多雷同SQL出如今同一狀態
u 當前是否有較多慢查詢日誌
l 是否鎖定
l 影響結果集
n 頻繁度分析
u 寫頻繁度
l 若是i/o壓力高,優先分析寫入頻繁度
l Mysqlbinlog 輸出最新binlog文件,編寫腳本拆分
l 最多寫入的數據表是哪一個
l 最多寫入的數據SQL是什麼
l 是否存在基於同一主鍵的數據內容高頻重複寫入?
n 涉及架構優化部分,參見架構優化-緩存異步更新
u 讀取頻繁度
l 若是cpu資源較高,而i/o壓力不高,優先分析讀取頻繁度
l 程序中在封裝的db類增長抽樣日誌便可,抽樣比例酌情考慮,以不顯著影響系統負載壓力爲底線。
l 最多讀取的數據表是哪一個
l 最多讀取的數據SQL是什麼
n 該SQL進行explain 和set profiling斷定
n 注意斷定時須要避免query cache影響
u 好比,在這個SQL末尾增長一個條件子句 and 1=1 就能夠避免從query cache中獲取數據,而獲得真實的執行狀態分析。
l 是否存在同一個查詢短時間內頻繁出現的狀況
n 涉及前端緩存優化
n 抓大放小,解決顯著問題
u 不苛求解決全部優化問題,可是應以保證線上服務穩定可靠爲目標。
u 解決與評估要同時進行,新的策略或解決方案務必通過評估後上線。
l 現象:服務器出現too many connections 阻塞
n 入手點:
u 查看服務器狀態,cpu佔用,內存佔用,硬盤佔用,硬盤i/o壓力
u 查看網絡流量狀態,mysql與應用服務器的輸入輸出情況
u 經過Show processlist查看當前運行清單
l 注意事項,平常應用程序鏈接數據庫不要使用root帳戶,保證故障時能夠經過root 進入數據庫查看 show processlist。
n 狀態分析:
u 參見如上執行狀態清單,根據鏈接狀態的分佈去肯定緣由。
n 緊急恢復
u 在肯定故障緣由後,應經過kill掉阻塞進程的方式 當即恢復數據庫。
n 善後處理
u 如下針對常見問題簡單解讀
u Sleep 鏈接過多致使,應用端及時釋放鏈接,排查關聯因素。
u Locked鏈接過多,如源於myisam表級鎖,更innodb引擎;如源於更新操做使用了不恰當的索引或未使用索引,改寫更新操做SQL或創建恰當索引。
u Sending data鏈接過多,用影響結果集的思路優化SQL查詢,優化表索引結構。
u Free items鏈接過多,i/o壓力過大 或硬盤故障
u Waiting for net , writing to net 鏈接過多, mysql與應用服務器鏈接阻塞。
u 其餘仍參見如上執行狀態清單所示分析。
u 如涉及不十分嚴格安全要求的數據內容,可用按期腳本跟蹤請求進程,並kill掉僵死進程。如數據安全要求較嚴格,則不能如此進行。
l 現象:數據庫負載太高,響應緩慢。
n 入手點:
u 查看cpu狀態,服務器負載構成
n 分支1:i/o佔用太高。
u 步驟1: 檢查內存是否佔用swap分區,排除因內存不足致使的i/o開銷。
u 步驟2:經過iostat 指令分析i/o是否集中於數據庫硬盤,是不是寫入度較高。
u 步驟3:若是壓力來自於寫,使用mysqlbinlog 解開最新的binlog文件。
u 步驟4:編寫日誌分析腳本或grep指令,分析每秒寫入頻度和寫入內容。
l 寫入頻度不高,則說明i/o壓力另有緣由或數據庫配置不合理。
u 步驟5:編寫日誌分析腳本或grep 指令,分析寫入的數據表構成,和寫入的目標構成。
u 步驟6:編寫日誌分析腳本,分析是否存在同一主鍵的重複寫入。 好比出現大量 update post set views=views+1 where tagid=****的操做,假設在一段時間內出現了2萬次,而其中不一樣的tagid有1萬次,那麼就是有50%的請求是重複update請求,有能夠經過異步更新合併的空間。
u 提示一下,以上所說起的日誌分析腳本編寫,正常狀況下不該超過1個小時,而對系統負載分析所提供的數據支持價值是巨大的,對性能優化方案的選擇是很是有意義的,若是您認爲這項工做是繁冗並且複雜的工做,那麼必定是在分析思路和目標把握上出現了誤差。
n 分支2:i/o佔用不高,CPU 佔用太高
u 步驟1:查看慢查詢日誌
u 步驟2:不斷刷新查看Show processlist清單,並把握可能頻繁出現的處於Sending data狀態的SQL。
u 步驟3:記錄前端執行SQL
l 於前端應用程序執行查詢的封裝對象內,設置隨機採樣,記錄前端執行的SQL,保證有必定的樣本規模,而且不會帶來前端i/o負載的激增。
l 基於採樣率和記錄頻率,得到每秒讀請求次數數據指標。
l 編寫日誌分析腳本,分析採樣的SQL構成,所操做的數據表,所操做的主鍵。
l 對頻繁重複讀取的SQL(徹底一致的SQL)進行斷定,是否數據存在頻繁變更,是否須要實時展示最新數據,若有可能,緩存化,並預估緩存命中率。
l 對頻繁讀取但不重複的(SQL結構一致,但條件中的數據不一致)SQL進行斷定,是否索引足夠優化,影響結果集與輸出結果是否足夠接近。
u 步驟4:將致使慢查詢的SQL或頻繁出現於show processlist狀態的SQL,或採樣記錄的頻繁度SQL進行分析,按照影響結果集的思路和索引理解來優化。
u 步驟5:對如上難以界定問題的SQL進行 set profiling 分析。
u 步驟6:優化後分析繼續採樣跟蹤分析。並跟蹤比對結果。
n 善後處理
u 平常跟蹤腳本,不斷記錄一些狀態信息。保證每一個時間節點都能回溯。
u 確保隨時能瞭解服務器的請求頻次,讀寫請求的分佈。
u 記錄一些未形成致命影響的隱患點,可暫不解決,但須要記錄。
u 如確係服務器請求頻次太高,可基於負載分佈決定硬件擴容方案,好比i/o壓力太高可考慮固態硬盤;內存佔用swap可考慮增長內容容量等。用盡量少的投入實現最好的負載支撐能力,而不是簡單的買更多服務器。
l 要學會怎樣分析問題,而不是單純拍腦殼優化
l 慢查詢只是最基礎的東西,要學會優化0.01秒的查詢請求。
l 當發生鏈接阻塞時,不一樣狀態的阻塞有不一樣的緣由,要找到緣由,若是不對症下藥,就會南轅北轍
n 範例:若是自己系統內存已經超載,已經使用到了swap,而還在考慮加大緩存來優化查詢,那就是自尋死路了。
l 影響結果集是很是重要的中間數據和優化指標,學會理解這一律念,理論上影響結果集與查詢效率呈現很是緊密的線性相關。
l 監測與跟蹤要常常作,而不是出問題才作
n 讀取頻繁度抽樣監測
u 全監測不要搞,i/o嚇死人。
u 按照一個抽樣比例抽樣便可。
u 針對抽樣中發現的問題,能夠按照特定SQL在特定時間內監測一段全查詢記錄,但仍要考慮i/o影響。
n 寫入頻繁度監測
u 基於binlog解開便可,可定時或不定時分析。
n 微慢查詢抽樣監測
u 高併發狀況下,查詢請求時間超過0.01秒甚至0.005秒的,建議酌情抽樣記錄。
n 鏈接數預警監測
u 鏈接數超過特定閾值的狀況下,雖然數據庫沒有崩潰,建議記錄相關鏈接狀態。
l 學會經過數據和監控發現問題,分析問題,然後解決問題瓜熟蒂落。特別是要學會在平常監控中發現隱患,而不是問題爆發了纔去處理和解決。
l Myisam 速度快,響應快。表級鎖是致命問題。
l Innodb 目前主流存儲引擎
n 行級鎖
u 務必注意影響結果集的定義是什麼
u 行級鎖會帶來更新的額外開銷,可是一般狀況下是值得的。
n 事務提交
u 對i/o效率提高的考慮
u 對安全性的考慮
l HEAP 內存引擎
n 頻繁更新和海量讀取狀況下仍會存在鎖定情況
l 理論上,內存越大,越多數據讀取發生在內存,效率越高
l Query cache的使用
n 若是前端請求重複度不高,或者應用層已經充分緩存重複請求,query cache沒必要設置很大,甚至能夠不設置。
n 若是前端請求重複度較高,無應用層緩存,query cache是一個很好的偷懶選擇
u 對於中等如下規模數據庫應用,偷懶不是一個壞選擇。
u 若是確認使用query cache,記得定時清理碎片,flush query cache.
l 要考慮到現實的硬件資源和瓶頸分佈
l 學會理解熱點數據,並將熱點數據儘量內存化
n 所謂熱點數據,就是最多被訪問的數據。
n 一般數據庫訪問是不平均的,少數數據被頻繁讀寫,而更多數據鮮有讀寫。
n 學會制定不一樣的熱點數據規則,並測算指標。
u 熱點數據規模,理論上,熱點數據越少越好,這樣能夠更好的知足業務的增加趨勢。
u 響應知足度,對響應的知足率越高越好。
u 好比依據最後更新時間,總訪問量,回訪次數等指標定義熱點數據,並測算不一樣定義模式下的熱點數據規模
l 數據提交方式
n innodb_flush_log_at_trx_commit = 1 每次自動提交,安全性高,i/o壓力大
n innodb_flush_log_at_trx_commit = 2 每秒自動提交,安全性略有影響,i/o承載強。
l 日誌同步
n Sync-binlog =1 每條自動更新,安全性高,i/o壓力大
n Sync-binlog = 0 根據緩存設置狀況自動更新,存在丟失數據和同步延遲風險,i/o承載力強。
n 我的建議保存binlog日誌文件,便於追溯 更新操做和系統恢復。
n 如對日誌文件的i/o壓力有擔憂,在內存寬裕的狀況下,可考慮將binlog 寫入到諸如 /dev/shm 這樣的內存映射分區,並定時將舊有的binlog轉移到物理硬盤。
l 性能與安全自己存在相悖的狀況,須要在業務訴求層面決定取捨
n 學會區分什麼場合側重性能,什麼場合側重安全
n 學會將不一樣安全等級的數據庫用不一樣策略管理
l 順序讀寫性能遠高於隨機讀寫
l 將順序寫數據和隨機讀寫數據分紅不一樣的物理磁盤進行,有助於i/o壓力的疏解
l 部分安全要求不高的寫入操做能夠用 /dev/shm 分區存儲,簡單變成內存寫。
l 多塊物理硬盤作raid10,能夠提高寫入能力
l 關鍵存儲設備優化,善於比對不一樣存儲介質的壓力測試數據。
l 涉及必須存儲較爲龐大的數據量時
l 系統監控
n 服務器資源監控
u Cpu, 內存,硬盤空間,i/o壓力
u 設置閾值報警
n 服務器流量監控
u 外網流量,內網流量
u 設置閾值報警
n 鏈接狀態監控
u Show processlist 設置閾值,每分鐘監測,超過閾值記錄
l 應用監控
n 慢查詢監控
u 慢查詢日誌
u 若是存在多臺數據庫服務器,應有彙總查閱機制。
n 請求錯誤監控
u 高頻繁應用中,會出現偶發性數據庫鏈接錯誤或執行錯誤,將錯誤信息記錄到日誌,查看每日的比例變化。
u 偶發性錯誤,若是數量極少,能夠不用處理,可是需時常監控其趨勢。
u 會存在惡意輸入內容,輸入邊界限定缺少致使執行出錯,需基於此防止惡意入侵探測行爲。
n 微慢查詢監控
u 高併發環境裏,超過0.01秒的查詢請求都應該關注一下。
n 頻繁度監控
u 寫操做,基於binlog,按期分析。
u 讀操做,在前端db封裝代碼中增長抽樣日誌,並輸出執行時間。
u 分析請求頻繁度是開發架構 進一步優化的基礎
u 最好的優化就是減小請求次數!
l 總結:
n 監控與數據分析是一切優化的基礎。
n 沒有運營數據監測就不要妄談優化!
n 監控要注意不要產生太多額外的負載,不要因監控帶來太多額外系統開銷
l 所謂單點隱患,就是某臺設備出現故障,會致使總體系統的不可用,這個設備就是單點隱患。
l 理解連帶效應,所謂連帶效應,就是一種問題會引起另外一種故障,舉例而言,memcache+mysql是一種常見緩存組合,在前端壓力很大時,若是memcache崩潰,理論上數據會經過mysql讀取,不存在系統不可用狀況,可是mysql沒法對抗如此大的壓力衝擊,會所以連帶崩潰。因A系統問題致使B系統崩潰的連帶問題,在運維過程當中會頻繁出現。
n 實戰範例: 在mysql鏈接不及時釋放的應用環境裏,當網絡環境異常(同機房友鄰服務器遭受拒絕服務攻擊,出口阻塞),網絡延遲加重,空鏈接數急劇增長,致使數據庫鏈接過多崩潰。
n 實戰範例2:前端代碼 一般咱們封裝 mysql_connect和memcache_connect,兩者的順序不一樣,會產生不一樣的連帶效應。若是mysql_connect在前,那麼一旦memcache鏈接阻塞,會連帶mysql空鏈接過多崩潰。
n 連帶效應是常見的系統崩潰,平常分析崩潰緣由的時候須要認真考慮連帶效應的影響,頭疼醫頭,腳疼醫腳是不行的。
l 數據容量增長後,要考慮可以將數據分佈到不一樣的服務器上。
l 請求壓力增長時,要考慮將請求壓力分佈到不一樣服務器上。
l 擴容設計時須要考慮防止單點隱患。
l 數據安全,業務安全
l 人力資源成本>帶寬流量成本>硬件成本
n 成本與流量的關係曲線應低於線性增加(流量爲橫軸,成本爲縱軸)。
n 規模優點
l 本教程僅就與數據庫有關部分討論,與數據庫無關部門請自行參閱其餘學習資料。
l 基本認識
n 用分庫&拆表是解決數據庫容量問題的惟一途徑。
n 分庫&拆表也是解決性能壓力的最優選擇。
n 分庫 – 不一樣的數據表放到不一樣的數據庫服務器中(也多是虛擬服務器)
n 拆表 – 一張數據表拆成多張數據表,可能位於同一臺服務器,也可能位於多臺服務器(含虛擬服務器)。
l 去關聯化原則
n 摘除數據表之間的關聯,是分庫的基礎工做。
n 摘除關聯的目的是,當數據表分佈到不一樣服務器時,查詢請求容易分發和處理。
n 學會理解反範式數據結構設計,所謂反範式,第一要點是不用外鍵,不容許Join操做,不容許任何須要跨越兩個表的查詢請求。第二要點是適度冗餘減小查詢請求,好比說,信息表,fromuid, touid, message字段外,還須要一個fromuname字段記錄用戶名,這樣查詢者經過touid查詢後,可以當即獲得發信人的用戶名,而無需進行另外一個數據表的查詢。
n 去關聯化處理會帶來額外的考慮,好比說,某一個數據表內容的修改,對另外一個數據表的影響。這一點須要在程序或其餘途徑去考慮。
l 分庫方案
n 安全性拆分
u 將高安全性數據與低安全性數據分庫,這樣的好處第一是便於維護,第二是高安全性數據的數據庫參數配置能夠以安全優先,而低安全性數據的參數配置以性能優先。參見運維優化相關部分。
n 基於業務邏輯拆分
u 根據數據表的內容構成,業務邏輯拆分,便於平常維護和前端調用。
u 基於業務邏輯拆分,能夠減小前端應用請求發送到不一樣數據庫服務器的頻次,從而減小連接開銷。
u 基於業務邏輯拆分,可保留部分數據關聯,前端web工程師可在限度範圍內執行關聯查詢。
n 基於負載壓力拆分
u 基於負載壓力對數據結構拆分,便於直接將負載分擔給不一樣的服務器。
u 基於負載壓力拆分,可能拆分後的數據庫包含不一樣業務類型的數據表,平常維護會有必定的煩惱。
n 混合拆分組合
u 基於安全與業務拆分爲數據庫實例,可是可使用不一樣端口放在同一個服務器上。
u 基於負載能夠拆分爲更多數據庫實例分佈在不一樣數據庫上
u 例如,
l 基於安全拆分出A數據庫實例,
l 基於業務拆分出B,C數據庫實例,
l C數據庫存在較高負載,基於負載拆分爲C1,C2,C3,C4等 實例。
l 數據庫服務器徹底能夠作到 A+B+C1 爲一臺,C2,C3,C4各單獨一臺。
l 分表方案
n 數據量過大或者訪問壓力過大的數據表須要切分
n 縱向分表(常見爲忙閒分表)
u 單數據表字段過多,可將頻繁更新的整數數據與非頻繁更新的字符串數據切分
u 範例 user表 ,我的簡介,地址,QQ號,聯繫方式,頭像 這些字段爲字符串類型,更新請求少; 最後登陸時間,在線時常,訪問次數,信件數這些字段爲整數型字段,更新頻繁,能夠將後面這些更新頻繁的字段獨立拆出一張數據表,表內容變少,索引結構變少,讀寫請求變快。
n 橫向切表
u 等分切表,如哈希切表或其餘基於對某數字取餘的切表。等分切表的優勢是負載很方便的分佈到不一樣服務器;缺點是當容量繼續增長時沒法方便的擴容,須要從新進行數據的切分或轉表。並且一些關鍵主鍵不易處理。
u 遞增切表,好比每1kw用戶開一個新表,優勢是能夠適應數據的自增趨勢;缺點是每每新數據負載高,壓力分配不平均。
u 日期切表,適用於日誌記錄式數據,優缺點等同於遞增切表。
u 我的傾向於遞增切表,具體根據應用場景決定。
n 熱點數據分表
u 將數據量較大的數據表中將讀寫頻繁的數據抽取出來,造成熱點數據表。一般一個龐大數據表常常被讀寫的內容每每具備必定的集中性,若是這些集中數據單獨處理,就會極大減小總體系統的負載。
u 熱點數據表與舊有數據關係
l 能夠是一張冗餘表,即該表數據丟失不會妨礙使用,因源數據仍存在於舊有結構中。優勢是安全性高,維護方便,缺點是寫壓力不能分擔,仍須要同步寫回原系統。
l 能夠是非冗餘表,即熱點數據的內容原有結構再也不保存,優勢是讀寫效率所有優化;缺點是當熱點數據發生變化時,維護量較大。
l 具體方案選擇須要根據讀寫比例決定,在讀頻率遠高於寫頻率狀況下,優先考慮冗餘表方案。
u 熱點數據表能夠用單獨的優化的硬件存儲,好比昂貴的閃存卡或大內存系統。
u 熱點數據表的重要指標
l 熱點數據的定義須要根據業務模式自行制定策略,常見策略爲,按照最新的操做時間;按照內容豐富度等等。
l 數據規模,好比從1000萬條數據,抽取出100萬條熱點數據。
l 熱點命中率,好比查詢10次,多少次命中在熱點數據內。
l 理論上,數據規模越小,熱點命中率越高,說明效果越好。須要根據業務自行評估。
u 熱點數據表的動態維護
l 加載熱點數據方案選擇
n 定時從舊有數據結構中按照新的策略獲取
n 在從舊有數據結構讀取時動態加載到熱點數據
l 剔除熱點數據方案選擇
n 基於特定策略,定時將熱點數據中訪問頻次較少的數據剔除
n 如熱點數據是冗餘表,則直接刪除便可,如不是冗餘表,須要回寫給舊有數據結構。
u 一般,熱點數據每每是基於緩存或者key-value 方案冗餘存儲,因此這裏提到的熱點數據表,其實更可能是理解思路,用到的場合可能並很少….
l 反範式設計的概念
n 無外鍵,無連表查詢。
n 便於分佈式設計,容許適度冗餘,爲了容量擴展容許適度開銷。
n 基於業務自由優化,基於i/o 或查詢設計,無須遵循範式結構設計。
l 冗餘結構設計所面臨的典型場景
n 原有展示程序涉及多個表的查詢,但願精簡查詢程序
n 數據表拆分每每基於主鍵,而原有數據表每每存在非基於主鍵的關鍵查詢,沒法在分表結構中完成。
n 存在較多數據統計需求(count, sum等),效率低下。
l 冗餘設計方案
n 基於展示的冗餘設計
u 爲了簡化展示程序,在一些數據表中每每存在冗餘字段
u 舉例,信息表 message,存在字段 fromuid,touid,msg,sendtime 四個字段,其中 touid+sendtime是複合索引。存在查詢爲 select * from message where touid=$uid order by sendtime desc limit 0,30;
u 展現程序須要顯示發送者姓名,此時一般會在message表中增長字段fromusername,甚至有的會增長fromusersex,從而無需連表查詢直接輸出信息的發送者姓名和性別。這就是一種簡單的,爲了不連表查詢而使用的冗餘字段設計。
n 基於查詢的冗餘設計
u 涉及分表操做後,一些常見的索引查詢可能須要跨表,帶來沒必要要的麻煩。確認查詢請求遠大於寫入請求時,應設置便於查詢項的冗餘表。
u 冗餘表要點
l 數據一致性,簡單說,同增,同刪,同更新。
l 能夠作全冗餘,或者只作主鍵關聯的冗餘,好比經過用戶名查詢uid,再基於uid查詢源表。
u 實戰範例1
l 用戶分表,將用戶庫分紅若干數據表
l 基於用戶名的查詢和基於uid的查詢都是高併發請求。
l 用戶分表基於uid分紅數據表,同時基於用戶名作對應冗餘表。
l 若是容許多方式登錄,能夠有以下設計方法
n uid,passwd,用戶信息等等,主數據表,基於uid 分表
n ukey,ukeytype,uid 基於ukey分表,便於用戶登錄的查詢。分解成以下兩個SQL。
u select uid from ulist_key_13 where ukey=’$username’ and ukeytype=‘login’;
u select * from ulist_uid_23 where uid=$uid and passwd=’$passwd’;
n ukeytype定義用戶的登錄依據,好比用戶名,手機號,郵件地址,網站暱稱等。 Ukey+ukeytype 必須惟一。
n 此種方式須要登錄密碼統一,對於第三方connect接入模式,能夠經過引伸額外字段完成。
u 實戰範例2:用戶遊戲積分排名
l 表結構 uid,gameid,score 參見前文實時積分排行。表內容巨大,須要拆表。
l 需求1:基於遊戲id查詢積分排行
l 需求2:基於用戶id查詢遊戲積分記錄
l 解決方案:創建徹底相同的兩套表結構,其一以uid爲拆表主鍵,其二以gameid爲拆表主鍵,用戶提交積分時,向兩個數據結構同時提交。
u 實戰範例3:全冗餘查詢結構
l 主信息表僅包括 主鍵及備註memo 字段(text類型),只支持主鍵查詢,能夠基於主鍵拆表。因此須要展示和存儲的內容均在memo字段重體現。
l 對每個查詢條件,創建查詢冗餘表,以查詢條件字段爲主鍵,以主信息表主鍵id 爲內容。
l 平常查詢只基於查詢冗餘表,而後經過in的方式從主信息表得到內容。
l 優勢是結構擴展很是方便,只須要擴展新的查詢信息表便可,核心思路是,只有查詢才須要獨立的索引結構,展示無需獨立字段。
l 缺點是隻適合於相對固定的查詢架構,對於更加靈活的組合查詢一籌莫展。
n 基於統計的冗餘結構
u 爲了減小會涉及大規模影響結果集的表數據操做,好比count,sum操做。應將一些統計類數據經過冗餘數據結構保存。
u 冗餘數據結構可能以字段方式存在,也可能以獨立數據表結構存在,可是都應能經過源數據表恢復。
u 實戰範例:
l 論壇板塊的發帖量,回帖量,每日新增數據等。
l 網站每日新增用戶數等。
l 參見Discuz論壇系統數據結構,有較多相關結構。
l 參見前文分段積分結構,是典型用於統計的冗餘結構。
l 後臺能夠經過源數據表更新該數字。
l Redis的Zset類型能夠理解爲存在一種冗餘統計結構。
n 歷史數據表
u 歷史數據表對應於熱點數據表,將需求較少又不能丟棄的數據存入,僅在少數狀況下被訪問。
l 基本認識
n 讀寫分離對負載的減輕遠遠不如分庫分表來的直接。
n 寫壓力會傳遞給從表,只讀從庫同樣有寫壓力,同樣會產生讀寫鎖!
n 一主多從結構下,主庫是單點隱患,很難解決(如主庫當機,從庫能夠響應讀寫,可是沒法自動擔當主庫的分發功能)
n 主從延遲也是重大問題。一旦有較大寫入問題,如表結構更新,主從會產生巨大延遲。
l 應用場景
n 在線熱備
n 異地分佈
u 寫分佈,讀統一。
u 仍然困難重重,受限於網絡環境問題巨多!
n 自動障礙轉移
u 主崩潰,從自動接管
n 我的建議,負載均衡主要使用分庫方案,主從主要用於熱備和障礙轉移。
l 潛在優化點
n 爲了減小寫壓力,有些人建議主不建索引提高i/o性能,從創建索引知足查詢要求。我的認爲這樣維護較爲麻煩。並且從自己會繼承主的i/o壓力,所以優化價值有限。該思路特此分享,不作推薦。
l 要點
n 程序與數據庫的鏈接,基於虛地址而非真實ip,由負載均衡系統監控。
n 保持主從結構的簡單化,不然很難作到故障點摘除。
l 思考方式
n 遍歷對服務器集羣的任何一臺服務器,前端web,中間件,監控,緩存,db等等,假設該服務器出現故障,系統是否會出現異常?用戶訪問是否會出現異常。
n 目標:任意一臺服務器崩潰,負載和數據操做均會很短期內自動轉移到其餘服務器,不會影響業務的正常進行。不會形成惡性的數據丟失。(哪些是能夠丟失的,哪些是不能丟失的)
l Memcached是最經常使用的緩存系統
l Mysql 最新版本已經開始支持memcache插件,但據牛人分析,尚不成熟,暫不推薦。
l 數據讀取
n 並非全部數據都適合被緩存,也並非進入了緩存就意味着效率提高。
n 命中率是第一要評估的數據。
n 如何評估進入緩存的數據規模,以及命中率優化,是很是須要細心分析的。
l 實景分析: 前端請求先鏈接緩存,緩存未命中鏈接數據庫,進行查詢,未命中狀態比單純鏈接數據庫查詢多了一次鏈接和查詢的操做;若是緩存命中率很低,則這個額外的操做非但不能提升查詢效率,反而爲系統帶來了額外的負載和複雜性,得不償失。
n 相關評估相似於熱點數據表的介紹。
n 善於利用內存,請注意數據存儲的格式及壓縮算法。
l Key-value 方案繁多,本培訓文檔暫不展開。
l 利用緩存不但能夠減小數據讀取請求,還能夠減小數據庫寫入i/o壓力
l 緩存實時更新,數據庫異步更新
n 緩存實時更新數據,並將更新記錄寫入隊列
n 可使用相似mq的隊列產品,自行創建隊列請注意使用increment來維持隊列序號。
n 不建議使用 get 後處理數據再set的方式維護隊列
l 測試範例:
l 範例1
$var=Memcache_get($memcon,」var」);
$var++;
memcache_set($memcon,」var」,$var);
這樣一個腳本,使用apache ab去跑,100個併發,跑10000次,而後輸出緩存存取的數據,很遺憾,並非1000,而是5000多,6000多這樣的數字,中間的數字全在 get & set的過程當中丟掉了。
緣由,讀寫間隔中其餘併發寫入,致使數據丟失。
l 範例2
用memcache_increment來作這個操做,一樣跑測試
會獲得完整的10000,一條數據不會丟。
l 結論: 用increment存儲隊列編號,用標記+編號做爲key存儲隊列內容。
n 後臺基於緩存隊列讀取更新數據並更新數據庫
l 基於隊列讀取後能夠合併更新
l 更新合併率是重要指標
l 實戰範例:
某論壇熱門貼,前端不斷有views=views+1數據更新請求。
緩存實時更新該狀態
後臺任務對數據庫作異步更新時,假設執行週期是5分鐘,那麼五分鐘可能會接收到這樣的請求多達數十次乃至數百次,合併更新後只執行一次update便可。
相似操做還包括遊戲打怪,生命和經驗的變化;我的主頁訪問次數的變化等。
n 異步更新風險
l 先後端同時寫,可能致使覆蓋風險。
l 使用後端異步更新,則前端應用程序就不要寫數據庫,不然可能形成寫入衝突。一種兼容的解決方案是,前端和後端不要寫相同的字段。
l 實戰範例:
用戶在線上時,後臺異步更新用戶狀態。
管理員後臺屏蔽用戶是直接更新數據庫。
結果管理員屏蔽某用戶操做完成後,因該用戶在線有操做,後臺異步更新程序再次基於緩存更新用戶狀態,用戶狀態被複活,屏蔽失效。
l 緩存數據丟失或服務崩潰可能致使數據丟失風險。
l 如緩存中間出現故障,則緩存隊列數據不會回寫到數據庫,而用戶會認爲已經完成,此時會帶來比較明顯的用戶體驗問題。
l 一個不完全的解決方案是,確保高安全性,高重要性數據實時數據更新,而低安全性數據經過緩存異步回寫方式完成。此外,使用相對數值操做而不是絕對數值操做更安全。
n 範例:支付信息,道具的購買與得到,一旦丟失會對用戶形成極大的傷害。而經驗值,訪問數字,若是隻丟失了不多時間的內容,用戶仍是能夠容忍的。
n 範例:若是使用 Views=Views+…的操做,一旦出現數據格式錯誤,從binlog中反推是能夠進行數據還原,可是若是使用Views=特定值的操做,一旦緩存中數據有錯誤,則直接被賦予了一個錯誤數據,沒法回溯!
l 異步更新如出現隊列阻塞可能致使數據丟失風險。
l 異步更新一般是使用緩存隊列後,在後臺由cron或其餘守護進程寫入數據庫。
l 若是隊列生成的速度>後臺更新寫入數據庫的速度,就會產生阻塞,致使數據越累計越多,數據庫響應遲緩,而緩存隊列沒法迅速執行,致使溢出或者過時失效。
n 建議使用內存隊列產品而不使用memcache 來進行緩存異步更新。