緩存算法(頁面置換算法)-FIFO、LFU、LRU

 

1.FIFO算法

  FIFO(First in First out),先進先出。其實在操做系統的設計理念中不少地方都利用到了先進先出的思想,好比做業調度(先來先服務),爲何這個原則在不少地方都會用到呢?由於這個原則簡單、且符合人們的慣性思惟,具有公平性,而且實現起來簡單,直接使用數據結構中的隊列便可實現。html

  在FIFO Cache設計中,核心原則就是:若是一個數據最早進入緩存中,則應該最先淘汰掉。也就是說,當緩存滿的時候,應當把最早進入緩存的數據給淘汰掉。在FIFO Cache中應該支持如下操做;算法

  get(key):若是Cache中存在該key,則返回對應的value值,不然,返回-1;數組

  set(key,value):若是Cache中存在該key,則重置value值;若是不存在該key,則將該key插入到到Cache中,若Cache已滿,則淘汰最先進入Cache的數據。緩存

  舉個例子:假如Cache大小爲3,訪問數據序列爲set(1,1),set(2,2),set(3,3),set(4,4),get(2),set(5,5)數據結構

  則Cache中的數據變化爲:spa

  (1,1)                               set(1,1)操作系統

  (1,1) (2,2)                       set(2,2)設計

  (1,1) (2,2) (3,3)               set(3,3)htm

  (2,2) (3,3) (4,4)               set(4,4)blog

  (2,2) (3,3) (4,4)               get(2)

  (3,3) (4,4) (5,5)               set(5,5)

   那麼利用什麼數據結構來實現呢?

  下面提供一種實現思路:

  利用一個雙向鏈表保存數據,當來了新的數據以後便添加到鏈表末尾,若是Cache存滿數據,則把鏈表頭部數據刪除,而後把新的數據添加到鏈表末尾。在訪問數據的時候,若是在Cache中存在該數據的話,則返回對應的value值;不然返回-1。若是想提升訪問效率,能夠利用hashmap來保存每一個key在鏈表中對應的位置。


 

2.LFU算法

  LFU(Least Frequently Used)最近最少使用算法。它是基於「若是一個數據在最近一段時間內使用次數不多,那麼在未來一段時間內被使用的可能性也很小」的思路。

  注意LFU和LRU算法的不一樣之處,LRU的淘汰規則是基於訪問時間,而LFU是基於訪問次數的。舉個簡單的例子:

  假設緩存大小爲3,數據訪問序列爲set(2,2),set(1,1),get(2),get(1),get(2),set(3,3),set(4,4),

  則在set(4,4)時對於LFU算法應該淘汰(3,3),而LRU應該淘汰(1,1)。

  那麼LFU Cache應該支持的操做爲:

  get(key):若是Cache中存在該key,則返回對應的value值,不然,返回-1;

  set(key,value):若是Cache中存在該key,則重置value值;若是不存在該key,則將該key插入到到Cache中,若Cache已滿,則淘汰最少訪問的數據。

  爲了可以淘汰最少使用的數據,所以LFU算法最簡單的一種設計思路就是 利用一個數組存儲 數據項,用hashmap存儲每一個數據項在數組中對應的位置,而後爲每一個數據項設計一個訪問頻次,當數據項被命中時,訪問頻次自增,在淘汰的時候淘汰訪問頻次最少的數據。這樣一來的話,在插入數據和訪問數據的時候都能達到O(1)的時間複雜度,在淘汰數據的時候,經過選擇算法獲得應該淘汰的數據項在數組中的索引,並將該索引位置的內容替換爲新來的數據內容便可,這樣的話,淘汰數據的操做時間複雜度爲O(n)。

  另外還有一種實現思路就是利用 小頂堆+hashmap,小頂堆插入、刪除操做都能達到O(logn)時間複雜度,所以效率相比第一種實現方法更加高效。

  若是哪位朋友有更高效的實現方式(好比O(1)時間複雜度),不妨探討一下,不勝感激。


 

3.LRU算法

  LRU(LeastRecently Used),即最近最久未使用的意思。下面說一下LRU算法的核心思想,LRU算法的設計原則是:若是一個數據在最近一段時間沒有被訪問到,那麼在未來它被訪問的可能性也很小。也就是說,當限定的空間已存滿數據時,應當把最久沒有被訪問到的數據淘汰。

  而用什麼數據結構來實現LRU算法呢?可能大多數人都會想到:用一個數組來存儲數據,給每個數據項標記一個訪問時間戳,每次插入新數據項的時候,先把數組中存在的數據項的時間戳自增,並將新數據項的時間戳置爲0並插入到數組中。每次訪問數組中的數據項的時候,將被訪問的數據項的時間戳置爲0。當數組空間已滿時,將時間戳最大的數據項淘汰。

  這種實現思路很簡單,可是有什麼缺陷呢?須要不停地維護數據項的訪問時間戳,另外,在插入數據、刪除數據以及訪問數據時,時間複雜度都是O(n)。

  那麼有沒有更好的實現辦法呢?

  那就是利用鏈表和hashmap。當須要插入新的數據項的時候,若是新數據項在鏈表中存在(通常稱爲命中),則把該節點移到鏈表頭部,若是不存在,則新建一個節點,放到鏈表頭部,若緩存滿了,則把鏈表最後一個節點刪除便可。在訪問數據的時候,若是數據項在鏈表中存在,則把該節點移到鏈表頭部,不然返回-1。這樣一來在鏈表尾部的節點就是最近最久未訪問的數據項。

  總結一下:根據題目的要求,LRU Cache具有的操做:

  1)set(key,value):若是key在hashmap中存在,則先重置對應的value值,而後獲取對應的節點cur,將cur節點從鏈表刪除,並移動到鏈表的頭部;若果key在hashmap不存在,則新建一個節點,並將節點放到鏈表的頭部。當Cache存滿的時候,將鏈表最後一個節點刪除便可。

  2)get(key):若是key在hashmap中存在,則把對應的節點放到鏈表頭部,並返回對應的value值;若是不存在,則返回-1。

  LRU算法的原理以及實如今前一篇博文中已經談到,在此不進行贅述:

  http://www.cnblogs.com/dolphin0520/p/3741519.html

相關文章
相關標籤/搜索