手寫LRU緩存淘汰算法
背景
在咱們這個日益追求高效的世界,咱們對任何事情的等待都顯得十分的浮躁,網頁頁面刷新不出來,好煩,電腦打開運行程序慢,又是好煩!那怎麼辦,技術的產生不就是咱們所服務麼,今天咱們就聊一聊緩存
這個技術,並使用咱們熟知的數據結構--用鏈表實現LRU緩存淘汰算法
。node
在學習如何使用鏈表實現LRU緩存淘汰算法前,咱們先提出幾個問題,你們好好思考下,問題以下:面試
-
什麼是緩存,緩存的做用?算法
-
緩存的淘汰策略有哪些?數據庫
-
如何使用鏈表實現LRU緩存淘汰算法,有什麼特色,如何優化?瀏覽器
好了,咱們帶着上面的問題來學進行下面的學習。緩存
一、什麼是緩存,緩存的做用是什麼?
緩存
能夠簡單的理解爲保存數據的一個副本
,以便於後續可以快速的進行訪問。以計算機的使用場景爲例
,當cpu要訪問內存中的一條數據時,它會先在緩存裏查找,若是可以找到則直接使用,若是沒找到,則須要去內存裏查找;服務器
一樣的,在數據庫的訪問場景中
,當項目系統須要查詢數據庫中的某條數據時,能夠先讓請求查詢緩存,若是命中,就直接返回緩存的結果,若是沒有命中,就查詢數據庫, 並將查詢結果放入緩存,下次請求時查詢緩存命中,直接返回結果,就不用再次查詢數據庫。數據結構
經過以上兩個例子,咱們發現不管在哪一種場景下,都存在這樣一個順序:先緩存,後內存
;先緩存,後數據庫
。可是緩存的存在也佔用了一部份內存空間,因此緩存是典型的以空間換時間
,犧牲數據的實時性
,卻知足計算機運行的高效性
。性能
仔細想一下,咱們平常開發中遇到緩存的例子還挺多的。學習
-
操做系統的緩存
減小與磁盤的交互
-
數據庫緩存
減小對數據庫的查詢
-
Web服務器緩存
減小對應用服務器的請求
-
客戶瀏覽器的緩存
減小對網站的訪問
二、緩存有哪些淘汰策略?
緩存的本質是以空間換時間
,那麼緩存的容量大小確定是有限的,當緩存被佔滿時,緩存中的那些數據應該被清理出去,那些數據應該被保留呢?這就須要緩存的淘汰策略來決定。
事實上,經常使用的緩存的淘汰策略有三種:先進先出算法(First in First out FIFO
);淘汰必定時期內被訪問次數最少的頁面(Least Frequently Used LFU
);淘汰最長時間未被使用的頁面(Least Recently Used LRU
)
這些算法在不一樣層次的緩存上執行時具備不一樣的效率,須要結合具體的場景來選擇。
2.1 FIFO算法
FIFO
算法即先進先出算法
,常採用隊列實現。在緩存中,它的設計原則是:若是一個數據最早進入緩存中,則應該最先淘汰掉
。
-
新訪問的數據插入FIFO隊列的尾部,隊列中數據由隊到隊頭按順序順序移動
-
隊列滿時,刪除隊頭的數據
2.2 LRU算法
LRU算法
是根據對數據的歷史訪問次數來進行淘汰數據的,一般使用鏈表來實現。在緩存中,它的設計原則是:若是數據最近被訪問過,那麼未來它被訪問的概率也很高。
image-20210227120433527
-
新加入的數據插入到鏈表的頭部
-
每當緩存命中時(即緩存數據被訪問),則將數據移到鏈表頭部
-
當來鏈表已滿的時候,將鏈表尾部的數據丟棄
2.3 LFU算法
LFU算法
是根據數據的歷史訪問頻率來淘汰數據,所以,LFU算法中的每一個數據塊都有一個引用計數,全部數據塊按照引用計數排序,具備相同引用計數的數據塊則按照時間排序。在緩存中,它的設計原則是:若是數據被訪問屢次,那麼未來它的訪問頻率也會更高
。
-
新加入數據插入到隊列尾部(引用計數爲1;
-
隊列中的數據被訪問後,引用計數增長,隊列從新排序;
-
當須要淘汰數據時,將已經排序的列表最後的數據塊刪除。
三、如何使用鏈表實現緩存淘汰,有什麼特色,如何優化?
在上面的文章中咱們理解了緩存的概念
及淘汰策略
,其中LRU算法
是筆試/面試中考察比較頻繁的,我秋招的時候,不少公司都讓我手寫了這個算法,爲了不你們採坑,下面,咱們就手寫一個LRU緩存淘汰算法。
咱們都知道鏈表的形式不止一種,咱們應該選擇哪種呢?
思考三分鐘........
好了,公佈答案!
事實上,鏈表按照不一樣的鏈接結構能夠劃分爲單鏈表
、循環鏈表
和雙向鏈表
。
-
單鏈表
每一個節點只包含一個指針,即後繼指針。
單鏈表有兩個特殊的節點,即首節點和尾節點,用首節點地址表示整條鏈表,尾節點的後繼指針指向空地址null。
性能特色:插入和刪除節點的時間複雜度爲O(1),查找的時間複雜度爲O(n)。
-
循環鏈表
除了尾節點的後繼指針指向首節點的地址外均與單鏈表一致。
適用於存儲有循環特色的數據,好比約瑟夫問題。
-
雙向鏈表
節點除了存儲數據外,還有兩個指針分別指向前一個節點地址(前驅指針prev)和下一個節點地址(後繼指針next)
首節點的前驅指針prev和尾節點的後繼指針均指向空地址。
雙向鏈表相較於單鏈表的一大優點在於:找到前驅節點的時間複雜度爲O(1),而單鏈表只能從頭節點慢慢往下找,因此仍然是O(n).並且,對於插入和刪除也是有優化的。
咱們可能會有問題:單鏈表的插入刪除不是O(1)嗎?
是的,可是通常狀況下,咱們想要進行插入刪除操做,不少時候仍是得先進行查找,再插入或者刪除,可見實際上是先O(n),再O(1)。
不熟悉鏈表解題的同窗能夠先看看個人上一篇算法解析文章刷了LeetCode鏈表專題,我發現了一個祕密。
由於咱們須要刪除操做,刪除一個節點不只要獲得該節點自己的指針,也須要操做其它前驅節點的指針,而雙向鏈表可以直接找到前驅,保證了操做時間複雜度爲O(1),所以使用雙向鏈表做爲實現LRU緩存淘汰算法的結構會更高效。
算法思路
維護一個雙向鏈表,保存全部緩存的值,而且最老的值放在鏈表最後面。
-
當訪問的值在鏈表中時: 將找到鏈表中值將其刪除,並從新在鏈表頭添加該值(保證鏈表中 數值的順序是重新到舊)
-
當訪問的值不在鏈表中時: 當鏈表已滿:刪除鏈表最後一個值,將要添加的值放在鏈表頭 當鏈表未滿:直接在鏈表頭添加
3.1 LRU緩存淘汰算法
極客時間王爭的《數據結構與算法之美》給出了一個使用有序單鏈表實現LRU緩存淘汰算法,代碼以下:
public class LRUBaseLinkedList<T> { /** * 默認鏈表容量 */ private final static Integer DEFAULT_CAPACITY = 10; /** * 頭結點 */ private SNode<T> headNode; /** * 鏈表長度 */ private Integer length; /** * 鏈表容量 */ private Integer capacity; public LRUBaseLinkedList() { this.headNode = new SNode<>(); this.capacity = DEFAULT_CAPACITY; this.length = 0; } public LRUBaseLinkedList(Integer capacity) { this.headNode = new SNode<>(); this.capacity = capacity; this.length = 0; } public void add(T data) { SNode preNode = findPreNode(data); // 鏈表中存在,刪除原數據,再插入到鏈表的頭部 if (preNode != null) { deleteElemOptim(preNode); intsertElemAtBegin(data); } else { if (length >= this.capacity) { //刪除尾結點 deleteElemAtEnd(); } intsertElemAtBegin(data); } } /** * 刪除preNode結點下一個元素 * * @param preNode */ private void deleteElemOptim(SNode preNode) { SNode temp = preNode.getNext(); preNode.setNext(temp.getNext()); temp = null; length--; } /** * 鏈表頭部插入節點 * * @param data */ private void intsertElemAtBegin(T data) { SNode next = headNode.getNext(); headNode.setNext(new SNode(data, next)); length++; } /** * 獲取查找到元素的前一個結點 * * @param data * @return */ private SNode findPreNode(T data) { SNode node = headNode; while (node.getNext() != null) { if (data.equals(node.getNext().getElement())) { return node; } node = node.getNext(); } return null; } /** * 刪除尾結點 */ private void deleteElemAtEnd() { SNode ptr = headNode; // 空鏈表直接返回 if (ptr.getNext() == null) { return; } // 倒數第二個結點 while (ptr.getNext().getNext() != null) { ptr = ptr.getNext(); } SNode tmp = ptr.getNext(); ptr.setNext(null); tmp = null; length--; } private void printAll() { SNode node = headNode.getNext(); while (node != null) { System.out.print(node.getElement() + ","); node = node.getNext(); } System.out.println(); } public class SNode<T> { private T element; private SNode next; public SNode(T element) { this.element = element; } public SNode(T element, SNode next) { this.element = element; this.next = next; } public SNode() { this.next = null; } public T getElement() { return element; } public void setElement(T element) { this.element = element; } public SNode getNext() { return next; } public void setNext(SNode next) { this.next = next; } } public static void main(String[] args) { LRUBaseLinkedList list = new LRUBaseLinkedList(); Scanner sc = new Scanner(System.in); while (true) { list.add(sc.nextInt()); list.printAll(); } } }
這段代碼無論緩存有沒有滿,都須要遍歷一遍鏈表,因此這種基於鏈表的實現思路,緩存訪問的時間複雜度爲 O(n)。
3.2使用哈希表優化LRU
事實上,這個思路還能夠繼續優化,咱們能夠把單鏈表換成雙向鏈表
,並引入散列表
。
-
雙向鏈表支持查找前驅,保證操做的時間複雜度爲O(1)
-
引入散列表記錄每一個數據的位置,將緩存訪問的時間複雜度降到O(1)
哈希表查找較快,可是數據無固定的順序;鏈表卻是有順序之分。插入、刪除較快,可是查找較慢。將它們結合,就能夠造成一種新的數據結構--哈希鏈表
(LinkedHashMap
)
力扣上146題-LRU緩存機制恰好能夠拿來練手,題圖以下:
題目:
運用你所掌握的數據結構,設計和實現一個 LRU (最近最少使用) 緩存機制 。
-
實現 LRUCache 類:
LRUCache(int capacity) 以正整數做爲容量 capacity 初始化 LRU 緩存 int get(int key) 若是關鍵字 key 存在於緩存中,則返回關鍵字的值,不然返回 -1 。 void put(int key, int value) 若是關鍵字已經存在,則變動其數據值;若是關鍵字不存在,則插入該組「關鍵字-值」。當緩存容量達到上限時,它應該在寫入新數據以前刪除最久未使用的數據值,從而爲新的數據值留出空間。
思路:
咱們的思路就是哈希表+雙向鏈表
-
哈希表用於知足題目時間複雜度O(1)的要求,雙向鏈表用於存儲順序
-
哈希表鍵值類型:<Integer, ListNode>,哈希表的鍵用於存儲輸入的key,哈希表的值用於存儲雙向鏈表的節點
-
雙向鏈表的節點中除了value外還須要包含key,由於在刪除最久未使用的數據時,須要經過鏈表來定位hashmap中應當刪除的鍵值對
-
一些操做:雙向鏈表中,在後面的節點表示被最近訪問
新加入的節點放在鏈表末尾,addNodeToLast(node)
若容量達到上限,去除最久未使用的數據,removeNode(head.next)
若數據新被訪問過,好比被get了或被put了新值,把該節點挪到鏈表末尾,moveNodeToLast(node)
-
爲了操做的方便,在雙向鏈表頭和尾分別定義一個head和tail節點。
代碼
class LRUCache { private int capacity; private HashMap<Integer, ListNode> hashmap; private ListNode head; private ListNode tail; private class ListNode{ int key; int val; ListNode prev; ListNode next; public ListNode(){ } public ListNode(int key, int val){ this.key = key; this.val = val; } } public LRUCache(int capacity) { this.capacity = capacity; hashmap = new HashMap<>(); head = new ListNode(); tail = new ListNode(); head.next = tail; tail.prev = head; } private void removeNode(ListNode node){ node.prev.next = node.next; node.next.prev = node.prev; } private void addNodeToLast(ListNode node){ node.prev = tail.prev; node.prev.next = node; node.next = tail; tail.prev= node; } private void moveNodeToLast(ListNode node){ removeNode(node); addNodeToLast(node); } public int get(int key) { if(hashmap.containsKey(key)){ ListNode node = hashmap.get(key); moveNodeToLast(node); return node.val; }else{ return -1; } } public void put(int key, int value) { if(hashmap.containsKey(key)){ ListNode node = hashmap.get(key); node.val = value; moveNodeToLast(node); return; } if(hashmap.size() == capacity){ hashmap.remove(head.next.key); removeNode(head.next); } ListNode node = new ListNode(key, value); hashmap.put(key, node); addNodeToLast(node); } }
巨人的肩膀
[1]數據結構與算法之美-王爭
[2]力扣-LRU緩存機制(146題)
[3]https://blog.csdn.net/yangpl_tale/article/details/44998423
[4]https://leetcode-cn.com/problems/lru-cache/solution/146-lru-huan-cun-ji-zhi-ha-xi-biao-shuan-l3um/