Redis的LRU算法

Redis的LRU算法

LRU算法背後的的思想在計算機科學中無處不在,它與程序的"局部性原理"很類似。在生產環境中,雖然有Redis內存使用告警,可是瞭解一下Redis的緩存使用策略仍是頗有好處的。下面是生產環境下Redis使用策略:最大可用內存限制爲4GB,採用 allkeys-lru 刪除策略。所謂刪除策略:當redis使用已經達到了最大內存,好比4GB時,若是這時候再往redis裏面添加新的Key,那麼Redis將選擇一個Key刪除。那如何選擇合適的Key刪除呢?html

CONFIG GET maxmemory
1) "maxmemory"
2) "4294967296"java

CONFIG GET maxmemory-policy
1) "maxmemory-policy"
2) "allkeys-lru"redis

在官方文檔Using Redis as an LRU cache描述中,提供了好幾種刪除策略,好比 allkeys-lru、volatile-lru等。在我看來按選擇時考慮三個因素:隨機、Key最近被訪問的時間 、Key的過時時間(TTL)算法

好比:allkeys-lru,"統計一下全部的"Key歷史訪問的時間,把"最老"的那個Key移除。注意:我這裏加了引號,其實在redis的具體實現中,要統計全部的Key的最近訪問時間代價是很大的。想一想,如何作到呢?數據庫

evict keys by trying to remove the less recently used (LRU) keys first, in order to make space for the new data added.緩存

再好比:allkeys-random,就是隨機選擇一個Key,將之移除。安全

evict keys randomly in order to make space for the new data added.微信

再好比:volatile-lru,它只移除那些使用 expire 命令設置了過時時間的Key,根據LRU算法來移除。網絡

evict keys by trying to remove the less recently used (LRU) keys first, but only among keys that have an expire set, in order to make space for the new data added.數據結構

再好比:volatile-ttl,它只移除那些使用 expire 命令設置了過時時間的Key,哪一個Key的 存活時間(TTL KEY 越小)越短,就優先移除。

evict keys with an expire set, and try to evict keys with a shorter time to live (TTL) first, in order to make space for the new data added.

volatile 策略(eviction methods) 做用的Key 是那些設置了過時時間的Key。在redisDb結構體中,定義了一個名爲 expires 字典(dict)保存全部的那些用expire命令設置了過時時間的key,其中expires字典的鍵指向redis 數據庫鍵空間(redisServer--->redisDb--->redisObject)中的某個鍵,而expires字典的值則是這個鍵的過時時間(long類型整數)。
額外提一下:redis 數據庫鍵空間是指:在結構體redisDb中定義的一個名爲"dict",類型爲hash字典的一個指針,它用來保存該redis DB中的每個鍵對象、以及相應的值對象。

既然有這麼多策略,那我用哪一個好呢?這就涉及到Redis中的Key的訪問模式了(access-pattern),access-pattern與代碼業務邏輯相關,好比說符合某種特徵的Key常常被訪問,而另外一些Key卻不怎麼用到。若是全部的Key均可能機會均等地被咱們的應用程序訪問,那它的訪問模式服從均勻分佈;而大部分狀況下,訪問模式服從冪指分佈(power-law distribution),另外Key的訪問模式也有多是隨着時間變化的,所以須要一種合適的刪除策略可以catch 住 (捕獲住)各類情形。而在冪指分佈下,LRU是一種很好的策略:

While caches can’t predict the future, they can reason in the following way: keys that are likely to be requested again are keys that were recently requested often. Since usually access patterns don’t change very suddenly, this is an effective strategy.

Redis中LRU策略的實現

最直觀的想法:LRU啊,記錄下每一個key 最近一次的訪問時間(好比unix timestamp),unix timestamp最小的Key,就是最近未使用的,把這個Key移除。看下來一個HashMap就能搞定啊。是的,可是首先須要存儲每一個Key和它的timestamp。其次,還要比較timestamp得出最小值。代價很大,不現實啊。

第二種方法:換個角度,不記錄具體的訪問時間點(unix timestamp),而是記錄idle time:idle time越小,意味着是最近被訪問的。

The LRU algorithm evicts the Least Recently Used key, which means the one with the greatest idle time.

好比A、B、C、D四個Key,A每5s訪問一次,B每2s訪問一次,C和D每10s訪問一次。(一個波浪號表明1s),從上圖中可看出:A的空閒時間是2s,B的idle time是1s,C的idle time是5s,D剛剛訪問了因此idle time是0s

這裏,用一個雙向鏈表(linkedlist)把全部的Key鏈表起來,若是一個Key被訪問了,將就這個Key移到鏈表的表頭,而要移除Key時,直接從表尾移除。

It is simple to implement because all we need to do is to track the last time a given key was accessed, or sometimes this is not even needed: we may just have all the objects we want to evict linked in a linked list.

可是在redis中,並無採用這種方式實現,它嫌LinkedList佔用的空間太大了。Redis並非直接基於字符串、鏈表、字典等數據結構來實現KV數據庫,而是在這些數據結構上建立了一個對象系統Redis Object。在redisObject結構體中定義了一個長度24bit的unsigned類型的字段,用來存儲對象最後一次被命令程序訪問的時間:

By modifying a bit the Redis Object structure I was able to make 24 bits of space. There was no room for linking the objects in a linked list (fat pointers!)

畢竟,並不須要一個徹底準確的LRU算法,就算移除了一個最近訪問過的Key,影響也不太。

To add another data structure to take this metadata was not an option, however since LRU is itself an approximation of what we want to achieve, what about approximating LRU itself?

最初Redis是這樣實現的:

隨機選三個Key,把idle time最大的那個Key移除。後來,把3改爲可配置的一個參數,默認爲N=5:maxmemory-samples 5

when there is to evict a key, select 3 random keys, and evict the one with the highest idle time

就是這麼簡單,簡單得讓人不敢相信了,並且十分有效。但它仍是有缺點的:每次隨機選擇的時候,並無利用歷史信息。在每一輪移除(evict)一個Key時,隨機從N個裏面選一個Key,移除idle time最大的那個Key;下一輪又是隨機從N個裏面選一個Key...有沒有想過:在上一輪移除Key的過程當中,實際上是知道了N個Key的idle time的狀況的,那我能不能在下一輪移除Key時,利用好上一輪知曉的一些信息?

However if you think at this algorithm across its executions, you can see how we are trashing a lot of interesting data. Maybe when sampling the N keys, we encounter a lot of good candidates, but we then just evict the best, and start from scratch again the next cycle.

start from scratch太傻了。因而Redis又作出了改進:採用緩衝池(pooling)

當每一輪移除Key時,拿到了這個N個Key的idle time,若是它的idle time比 pool 裏面的 Key的idle time還要大,就把它添加到pool裏面去。這樣一來,每次移除的Key並不只僅是隨機選擇的N個Key裏面最大的,並且仍是pool裏面idle time最大的,而且:pool 裏面的Key是通過多輪比較篩選的,它的idle time 在機率上比隨機獲取的Key的idle time要大,能夠這麼理解:pool 裏面的Key 保留了"歷史經驗信息"。

Basically when the N keys sampling was performed, it was used to populate a larger pool of keys (just 16 keys by default). This pool has the keys sorted by idle time, so new keys only enter the pool when they have an idle time greater than one key in the pool or when there is empty space in the pool.

採用"pool",把一個全局排序問題 轉化成爲了 局部的比較問題。(儘管排序本質上也是比較,囧)。要想知道idle time 最大的key,精確的LRU須要對全局的key的idle time排序,而後就能找出idle time最大的key了。可是能夠採用一種近似的思想,即隨機採樣(samping)若干個key,這若干個key就表明着全局的key,把samping獲得的key放到pool裏面,每次採樣以後更新pool,使得pool裏面老是保存着隨機選擇過的key的idle time最大的那些key。須要evict key時,直接從pool裏面取出idle time最大的key,將之evict掉。這種思想是很值得借鑑的。

至此,基於LRU的移除策略就分析完了。Redis裏面還有一種基於LFU(訪問頻率)的移除策略,後面有時間再說。

JAVA 裏面的LRU實現

JDK中的LinkedHashMap實現了LRU算法,使用以下構造方法,accessOrder 表示"最近最少未使用"的衡量標準。好比accessOrder=true,當執行java.util.LinkedHashMap#get元素時,就表示這個元素最近被訪問了。

/**
     * Constructs an empty <tt>LinkedHashMap</tt> instance with the
     * specified initial capacity, load factor and ordering mode.
     *
     * @param  initialCapacity the initial capacity
     * @param  loadFactor      the load factor
     * @param  accessOrder     the ordering mode - <tt>true</tt> for
     *         access-order, <tt>false</tt> for insertion-order
     * @throws IllegalArgumentException if the initial capacity is negative
     *         or the load factor is nonpositive
     */
    public LinkedHashMap(int initialCapacity,
                         float loadFactor,
                         boolean accessOrder) {
        super(initialCapacity, loadFactor);
        this.accessOrder = accessOrder;
    }

再重寫:java.util.LinkedHashMap#removeEldestEntry方法便可。

The {@link #removeEldestEntry(Map.Entry)} method may be overridden to impose a policy for removing stale mappings automatically when new mappings are added to the map.

爲了保證線程安全,用Collections.synchronizedMap將LinkedHashMap對象包裝起來:

Note that this implementation is not synchronized. If multiple threads access a linked hash map concurrently, and at least one of the threads modifies the map structurally, it must be synchronized externally. This is typically accomplished by synchronizing on some object that naturally encapsulates the map.

實現以下:(org.elasticsearch.transport.TransportService)

final Map<Long, TimeoutInfoHolder> timeoutInfoHandlers =
        Collections.synchronizedMap(new LinkedHashMap<Long, TimeoutInfoHolder>(100, .75F, true) {
            @Override
            protected boolean removeEldestEntry(Map.Entry eldest) {
                return size() > 100;
            }
        });

當容量超過100時,開始執行LRU策略:將最近最少未使用的 TimeoutInfoHolder 對象 evict 掉。

參考連接:

最近,在生產環境上對某一微服務部署了多份,多個client併發訪問同一份數據,形成了數據的重複計算,須要分佈式鎖解決這個問題。看了下redis 的 transaction documention 以及redis distlock,在結尾發現《design data intensive applications》的做者寫了一篇文章 how-to-do-distributed-locking分析了使用redis實現分佈式鎖的缺陷:嚴重依賴於計算機時鐘的"準確性",而在分佈式環境下,本地時鐘是不可靠的,所以使用redis做爲分佈式鎖在某些條件下(好比網絡延時)違反了鎖的一個性質:安全性。做者給出的解決方案是每次修改數據時比較 fencing token,這種使用 fencing token 的思路很是相似於MySQL裏面的"樂觀鎖"實現方式,即:都是基於"數據版本號"判斷是否發生了衝突。此外,martin kleppmann 還建議若是是使用分佈式鎖保證安全性,那麼最好使用基於Zookeeper實現分佈式鎖,由zookeeper的高可用性保證分佈式鎖的可用性。
有趣的是,redlock的做者也寫了一篇文章 Is Redlock safe?做爲迴應martin kleppmann的質疑,讀完以後相信對分佈式鎖會有一個更好的理解。不由感嘆讀官方文檔、英文原文能夠極大提升理解技術本質的效率,一篇好的文章真的能節約不少時間。好了,不說了,說多了我就懷疑本身寫的東西了^~^。

最後,再扯一點與本文不相關的東西:關於數據處理的一些思考:
5G有能力讓各類各樣的節點都接入網絡,就會產生大量的數據,如何高效地處理這些數據、挖掘數據(機器學習、深度學習)背後的隱藏的模式是一件很是有趣的事情,由於這些數據實際上是人類行爲的客觀反映。舉個例子,微信運動的計步功能,會讓你發現:哎,原來天天個人活動量大概保持在1萬步左右。再深刻一步,之後各類工業設備、家用電器,都會產生各類各樣的數據,這些數據是社會商業活動的體現,也是人類活動的體現。如何合理地利用這些數據呢?現有的存儲系統能支撐這些數據的存儲嗎?有沒有一套高效的計算系統(spark or tensorflow...)分析出數據中隱藏的價值?另外,基於這些數據訓練出來的算法模型應用以後會不會帶來偏見?有沒有濫用數據?網上買東西有算法給你推薦,刷朋友圈會給你投針對性的廣告,你須要借多少錢,貸多少款也會有模型評估,看新聞、看娛樂八卦也有算法推薦。你天天看到的東西、接觸的東西,有不少不少都是這些"數據系統"作的決策,它們真的公平嗎?在現實中若是你犯了錯,有老師、朋友、家人給你反饋、糾正,你改了,一切還能夠從頭開始。可在這些數據系統之下呢?有糾錯反饋機制嗎?會不會刺激人越陷越深?就算你很正直、有良好的信用,算法模型也可能存在機率誤差,這是否是影響人類"公平競爭"的機會?這些都是數據開發人員值得思考的問題。

原文:https://www.cnblogs.com/hapjin/p/10933405.html

相關文章
相關標籤/搜索