設計一個緩存系統,不得不要考慮的問題就是:緩存穿透、緩存擊穿與失效時的雪崩效應。java
緩存中的某些Key(可能對應用與某個促銷商品)對應的value存儲在集羣中一臺機器,使得全部流量涌向同一機器,成爲系統的瓶頸,該問題的挑戰在於它沒法經過增長機器容量來解決。redis
客戶端熱點key緩存:將熱點key對應value並緩存在客戶端本地,而且設置一個失效時間。對於每次讀請求,將首先檢查key是否存在於本地緩存中,若是存在則直接返回,若是不存在再去訪問分佈式緩存的機器。
將熱點key分散爲多個子key,而後存儲到緩存集羣的不一樣機器上,這些子key對應的value都和熱點key是同樣的。當經過熱點key去查詢數據時,經過某種hash算法隨機選擇一個子key,而後再去訪問緩存機器,將熱點分散到了多個子key上。算法
緩存穿透是指查詢一個必定不存在的數據,因爲緩存是不命中時被動寫的,而且出於容錯考慮,若是從存儲層查不到數據則不寫入緩存,這將致使這個不存在的數據每次請求都要到存儲層去查詢,失去了緩存的意義。在流量大時,可能DB就掛掉了,要是有人利用不存在的key頻繁攻擊咱們的應用,這就是漏洞。數據庫
有不少種方法能夠有效地解決緩存穿透問題,最多見的則是採用布隆過濾器,將全部可能存在的數據哈希到一個足夠大的bitmap中,一個必定不存在的數據會被 這個bitmap攔截掉,從而避免了對底層存儲系統的查詢壓力。另外也有一個更爲簡單粗暴的方法(咱們採用的就是這種),若是一個查詢返回的數據爲空(不論是數 據不存在,仍是系統故障),咱們仍然把這個空結果進行緩存,但它的過時時間會很短,最長不超過五分鐘。後端
緩存雪崩是指在咱們設置緩存時採用了相同的過時時間,致使緩存在某一時刻同時失效,請求所有轉發到DB,DB瞬時壓力太重雪崩。緩存
緩存失效時的雪崩效應對底層系統的衝擊很是可怕。大多數系統設計者考慮用加鎖或者隊列的方式保證緩存的單線 程(進程)寫,從而避免失效時大量的併發請求落到底層存儲系統上。這裏分享一個簡單方案就時講緩存失效時間分散開,好比咱們能夠在原有的失效時間基礎上增長一個隨機值,好比1-5分鐘隨機,這樣每個緩存的過時時間的重複率就會下降,就很難引起集體失效的事件。安全
對於一些設置了過時時間的key,若是這些key可能會在某些時間點被超高併發地訪問,是一種很是「熱點」的數據。這個時候,須要考慮一個問題:緩存被「擊穿」的問題,這個和緩存雪崩的區別在於這裏針對某一key緩存,前者則是不少key。網絡
緩存在某個時間點過時的時候,剛好在這個時間點對這個Key有大量的併發請求過來,這些請求發現緩存過時通常都會從後端DB加載數據並回設到緩存,這個時候大併發的請求可能會瞬間把後端DB壓垮。併發
從新設計緩存的使用方式,當咱們經過key去查詢數據時,首先查詢緩存,若是此時緩存中查詢不到,就經過分佈式鎖進行加鎖,取得鎖的進程查DB並設置緩存,而後解鎖;其餘進程若是發現有鎖就等待,而後等解鎖後返回緩存數據或者再次查詢DB。異步
業界比較經常使用的作法,是使用mutex。簡單地來講,就是在緩存失效的時候(判斷拿出來的值爲空),不是當即去load db,而是先使用緩存工具的某些帶成功操做返回值的操做(好比Redis的SETNX或者Memcache的ADD)去set一個mutex key,當操做返回成功時,再進行load db的操做並回設緩存;不然,就重試整個get緩存的方法。
SETNX,是「SET if Not eXists」的縮寫,也就是隻有不存在的時候才設置,能夠利用它來實現鎖的效果。在redis2.6.1以前版本未實現setnx的過時時間,因此這裏給出兩種版本代碼參考:
最新版本代碼:
memcache代碼:
在value內部設置1個超時值(timeout1), timeout1比實際的memcache timeout(timeout2)小。當從cache讀取到timeout1發現它已通過期時候,立刻延長timeout1並從新設置到cache。而後再從數據庫加載數據並設置到cache中。僞代碼以下:
這裏的「永遠不過時」包含兩層意思:
(1) 從redis上看,確實沒有設置過時時間,這就保證了,不會出現熱點key過時問題,也就是「物理」不過時。
(2) 從功能上看,若是不過時,那不就成靜態的了嗎?因此咱們把過時時間存在key對應的value裏,若是發現要過時了,經過一個後臺的異步線程進行緩存的構建,也就是「邏輯」過時
從實戰看,這種方法對於性能很是友好,惟一不足的就是構建緩存時候,其他線程(非構建緩存的線程)可能訪問的是老數據,可是對於通常的互聯網功能來講這個仍是能夠忍受。
採用netflix的hystrix,能夠作資源的隔離保護主線程池,若是把這個應用到緩存的構建也何嘗不可。
四種解決方案:沒有最佳只有最合適
解決方案 | 優勢 | 缺點 |
簡單分佈式互斥鎖(mutex key) | 1. 思路簡單 2. 保證一致性 |
1. 代碼複雜度增大 2. 存在死鎖的風險 3. 存在線程池阻塞的風險 |
「提早」使用互斥鎖 | 1. 保證一致性 | 同上 |
不過時(本文) | 1. 異步構建緩存,不會阻塞線程池 |
1. 不保證一致性。 2. 代碼複雜度增大(每一個value都要維護一個timekey)。 3. 佔用必定的內存空間(每一個value都要維護一個timekey)。 |
資源隔離組件hystrix(本文) | 1. hystrix技術成熟,有效保證後端。 2. hystrix監控強大。
|
1. 部分訪問存在降級策略。 |
四種方案來源網絡,詳文請連接:http://carlosfu.iteye.com/blog/2269687?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io
針對業務系統,永遠都是具體狀況具體分析,沒有最好,只有最合適。
最後,對於緩存系統常見的緩存滿了和數據丟失問題,須要根據具體業務分析,一般咱們採用LRU策略處理溢出,Redis的RDB和AOF持久化策略來保證必定狀況下的數據安全。