LRU---緩存淘汰策略

LRU(Least recently used,最近最少使用)最近最久未使用算法根據數據的歷史訪問記錄來進行淘汰數據,其核心思想是「如果數據最近被訪問過,那麼將來被訪問的機率也更高」。

基本介紹:淘汰近期沒有使用的數據,維持動態數據平衡。
在這裏插入圖片描述

步驟分析:
在這裏插入圖片描述

  1. 新數據插入到鏈表頭部;
  2. 每當緩存命中(即緩存數據被訪問),則將數據移到鏈表頭部;
  3. 當鏈表滿的時候,將鏈表尾部的數據丟棄。

代碼實現:
Java使用LinkedHashMap實現LRU:

package lru;

import java.util.LinkedHashMap;
import java.util.Map;
import java.util.Set;

/**
 * @author luanaynxu
 *
 *         2018年12月2日
 */
public class Lru<K, V> {
	private final int MAX_CACHE_SIZE; //初始化最大值
	private final float DEFAULT_LOAD_FACTORY = 0.75f;//Map擴容因子

	LinkedHashMap<K, V> map;

	public Lru(int cacheSize) {
		MAX_CACHE_SIZE = cacheSize;
		int capacity = (int) Math.ceil(MAX_CACHE_SIZE / DEFAULT_LOAD_FACTORY) + 1;
		/*
		 * 第三個參數設置爲true,代表linkedlist按訪問順序排序,可作爲LRU緩存 第三個參數設置爲false,代表按插入順序排序,可作爲FIFO緩存
		 */
		map = new LinkedHashMap<K, V>(capacity, DEFAULT_LOAD_FACTORY, true) {
			/**
			 * 
			 */
			private static final long serialVersionUID = 1L;

			@Override
			protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
				return size() > MAX_CACHE_SIZE;
			}
		};
	}

	public synchronized void put(K key, V value) {
		map.put(key, value);
	}

	public synchronized V get(K key) {
		return map.get(key);
	}

	public synchronized void remove(K key) {
		map.remove(key);
	}

	public synchronized Set<Map.Entry<K, V>> getAll() {
		return map.entrySet();
	}

	@Override
	public String toString() {
		StringBuilder stringBuilder = new StringBuilder();
		for (Map.Entry<K, V> entry : map.entrySet()) {
			stringBuilder.append(String.format("%s: %s  ", entry.getKey(), entry.getValue()));
		}
		return stringBuilder.toString();
	}

	public static void main(String[] args) {
		Lru<Integer, Integer> lru1 = new Lru<>(5);
		lru1.put(1, 1);
		lru1.put(2, 2);
		lru1.put(3, 3);
		System.out.println(lru1);
		lru1.get(1);// 訪問1
		System.out.println(lru1);
		lru1.put(4, 4);
		lru1.put(5, 5);
		lru1.put(6, 6);// 2由於最近沒有使用 被淘汰
		System.out.println(lru1);

	}
}

運行結果:

1: 1  2: 2  3: 3  
2: 2  3: 3  1: 1  
3: 3  1: 1  4: 4  5: 5  6: 6

相關分析: 【命中率】 當存在熱點數據時,LRU的效率很好,但偶發性的、週期性的批量操作會導致LRU命 中率急劇下降,緩存污染情況比較嚴重。 【複雜度】 實現簡單。 【代價】 命中時需要遍歷鏈表,找到命中的數據塊索引,然後需要將數據移到頭部。