Redis緩存跟mysql保持一致性問題

需求原由

在高併發的業務場景下,數據庫大多數狀況都是用戶併發訪問最薄弱的環節。因此,就須要使用redis作一個緩衝操做,讓請求先訪問到redis,而不是直接訪問MySQL等數據庫。mysql

這個業務場景,主要是解決讀數據從Redis緩存,通常都是按照下圖的流程來進行業務操做。redis

讀取緩存步驟通常沒有什麼問題,可是一旦涉及到數據更新:數據庫和緩存更新,就容易出現緩存(Redis)和數據庫(MySQL)間的數據一致性問題sql

不論是先寫MySQL數據庫,再刪除Redis緩存;仍是先刪除緩存,再寫庫,都有可能出現數據不一致的狀況。舉一個例子:數據庫

1.若是刪除了緩存Redis,尚未來得及寫庫MySQL,另外一個線程就來讀取,發現緩存爲空,則去數據庫中讀取數據寫入緩存,此時緩存中爲髒數據。緩存

2.若是先寫了庫,在刪除緩存前,寫庫的線程宕機了,沒有刪除掉緩存,則也會出現數據不一致狀況。bash

由於寫和讀是併發的,無法保證順序,就會出現緩存和數據庫的數據不一致的問題。併發

如來解決?這裏給出兩個解決方案,先易後難,結合業務和技術代價選擇使用。框架


緩存和數據庫一致性解決方案異步

第一種方案:採用延時雙刪策略

在寫庫先後都進行redis.del(key)操做,而且設定合理的超時時間。高併發

僞代碼以下:

public void write(String key,Object data){
 redis.delKey(key);
 db.updateData(data);
 Thread.sleep(500);
 redis.delKey(key);
 }複製代碼

2.具體的步驟就是:

1)先刪除緩存

2)再寫數據庫

3)休眠1000毫秒

4)再次刪除緩存


那麼,這個1000毫秒怎麼肯定的,具體該休眠多久呢?

須要評估本身的項目的讀數據業務邏輯的耗時。這麼作的目的,就是確保讀請求結束,寫請求能夠刪除讀請求形成的緩存髒數據。

固然這種策略還要考慮redis和數據庫主從同步的耗時。最後的的寫數據的休眠時間:則在讀數據業務邏輯的耗時基礎上,加幾百ms便可。好比:休眠1秒。


3.設置緩存過時時間

從理論上來講,給緩存設置過時時間,是保證最終一致性的解決方案。全部的寫操做以數據庫爲準,只要到達緩存過時時間,則後面的讀請求天然會從數據庫中讀取新值而後回填緩存。


4.該方案的弊端

結合雙刪策略+緩存超時設置,這樣最差的狀況就是在超時時間內數據存在不一致,並且又增長了寫請求的耗時。


第二種方案:異步更新緩存(基於訂閱binlog的同步機制)

1.技術總體思路:

MySQL binlog增量訂閱消費+消息隊列+增量數據更新到redis

1)讀Redis:熱數據基本都在Redis

2)寫MySQL:增刪改都是操做MySQL

3)更新Redis數據:MySQ的數據操做binlog,來更新到Redis


2.Redis更新

1)數據操做主要分爲兩大塊:

  • 一個是全量(將所有數據一次寫入到redis)
  • 一個是增量(實時更新)

這裏說的是增量,指的是mysql的update、insert、delate變動數據。

2)讀取binlog後分析 ,利用消息隊列,推送更新各臺的redis緩存數據。

這樣一旦MySQL中產生了新的寫入、更新、刪除等操做,就能夠把binlog相關的消息推送至Redis,Redis再根據binlog中的記錄,對Redis進行更新。

其實這種機制,很相似MySQL的主從備份機制,由於MySQL的主備也是經過binlog來實現的數據一致性。

這裏能夠結合使用canal(阿里的一款開源框架),經過該框架能夠對MySQL的binlog進行訂閱,而canal正是模仿了mysql的slave數據庫的備份請求,使得Redis的數據更新達到了相同的效果。

固然,這裏的消息推送工具你也能夠採用別的第三方:kafka、rabbitMQ等來實現推送更新Redis。

相關文章
相關標籤/搜索