併發編程中,ConcurrentHashMap是一個使用度很是高的數據結構。node
優勢:編程
Segment繼承了ReentrantLock,因此它自己是個容器同時也是一個鎖。因此segment中可使用tryLock(),lock(),unLock()方法完成鎖相關操做。數組
static final class HashEntry<K,V> {
final int hash;
final K key;
volatile V value;
volatile HashEntry<K,V> next;
}
複製代碼
單向鏈表,其中持有了鍵值對和key的hash值。安全
/**
* @param initialCapacity 初始容量
* @param loadFactor 加載因子,擴容時機
* @param concurrencyLevel 併發級別
*/
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
// 相關參數校驗
if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (concurrencyLevel > MAX_SEGMENTS)
concurrencyLevel = MAX_SEGMENTS;
int sshift = 0;
// segments[]數組大小,假設併發度爲17,ssize爲32.
int ssize = 1;
while (ssize < concurrencyLevel) {
++sshift;
ssize <<= 1;
}
// segment偏移量
this.segmentShift = 32 - sshift;
// segmentMask:二進制表示111111,用於定位segments[]下標.
this.segmentMask = ssize - 1;
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 計算每一個sgment中HashEntry[]數組的大小
int c = initialCapacity / ssize;
if (c * ssize < initialCapacity)
++c;
int cap = MIN_SEGMENT_TABLE_CAPACITY;
while (cap < c)
cap <<= 1;
// create segments and segments[0]
Segment<K,V> s0 =
new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
(HashEntry<K,V>[])new HashEntry[cap]);
Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];
// 使用UNSAFE給ss數組的第0個元素賦值
UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]
this.segments = ss;
}
複製代碼
public V put(K key, V value) {
Segment<K,V> s;
if (value == null)
throw new NullPointerException();
// 計算key的hash值
int hash = hash(key);
// 將hash值右移偏移量位,並與上31(11111),因此j爲0-31之間的數
int j = (hash >>> segmentShift) & segmentMask;
// 獲取下標爲j的segment的對象,若是未建立則用UNSAFE提供的CAS操做建立segment對象。並保證多個線程同時建立的正確性。
if ((s = (Segment<K,V>)UNSAFE.getObject // nonvolatile; recheck
(segments, (j << SSHIFT) + SBASE)) == null) // in ensureSegment
s = ensureSegment(j);
return s.put(key, hash, value, false);
}
/**
* 併發狀況下的ensureSegment()方法也是線程安全的
**/
private Segment<K,V> ensureSegment(int k) {
final Segment<K,V>[] ss = this.segments;
long u = (k << SSHIFT) + SBASE; // raw offset
Segment<K,V> seg;
// 使用輕量級同步volatile原語,保證讀到的對象是最新的.
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
Segment<K,V> proto = ss[0]; // use segment 0 as prototype
int cap = proto.table.length;
float lf = proto.loadFactor;
int threshold = (int)(cap * lf);
HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) { // recheck
Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) {
// CAS操做
if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
break;
}
}
}
return seg;
}
/**
* segment中的put()方法
*/
final V put(K key, int hash, V value, boolean onlyIfAbsent) {
// 嘗試獲取鎖,獲取不到時,調用scan..預先建立節點並返回(有點自旋鎖的意味)。
HashEntry<K,V> node = tryLock() ? null :
scanAndLockForPut(key, hash, value);
V oldValue;
try {
HashEntry<K,V>[] tab = table;
// 計算此key在HashEntry[]數組的下標
int index = (tab.length - 1) & hash;
// 獲取該下標下鏈表的頭節點
HashEntry<K,V> first = entryAt(tab, index);
// 遍歷鏈表
for (HashEntry<K,V> e = first;;) {
if (e != null) {
K k;
if ((k = e.key) == key ||
(e.hash == hash && key.equals(k))) {
oldValue = e.value;
if (!onlyIfAbsent) {
e.value = value;
++modCount;
}
break;
}
e = e.next;
}
else {
if (node != null)
node.setNext(first);
else
node = new HashEntry<K,V>(hash, key, value, first);
int c = count + 1;
if (c > threshold && tab.length < MAXIMUM_CAPACITY)
// 超過閾值,擴容
rehash(node);
else
setEntryAt(tab, index, node);
++modCount;
count = c;
oldValue = null;
break;
}
}
} finally {
unlock();
}
return oldValue;
}
/**
* 擴容方法,由於擴容事後,每一個節點的下標只會(不變)或者變爲(現有下標+原數組長度),因此它遍歷鏈表時將最後一小段要變化的鏈一塊兒移動。
*/
private void rehash(HashEntry<K,V> node) {
HashEntry<K,V>[] oldTable = table;
// 原數組長度
int oldCapacity = oldTable.length;
// 擴容後長度*2
int newCapacity = oldCapacity << 1;
threshold = (int)(newCapacity * loadFactor);
HashEntry<K,V>[] newTable =
(HashEntry<K,V>[]) new HashEntry[newCapacity];
int sizeMask = newCapacity - 1;
for (int i = 0; i < oldCapacity ; i++) {
HashEntry<K,V> e = oldTable[i];
if (e != null) {
HashEntry<K,V> next = e.next;
int idx = e.hash & sizeMask;
if (next == null) // Single node on list
newTable[idx] = e;
else { // Reuse consecutive sequence at same slot
HashEntry<K,V> lastRun = e;
int lastIdx = idx;
for (HashEntry<K,V> last = next;
last != null;
last = last.next) {
int k = last.hash & sizeMask;
if (k != lastIdx) {
lastIdx = k;
lastRun = last;
}
}
newTable[lastIdx] = lastRun;
// Clone remaining nodes
for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {
V v = p.value;
int h = p.hash;
int k = h & sizeMask;
HashEntry<K,V> n = newTable[k];
newTable[k] = new HashEntry<K,V>(h, p.key, v, n);
}
}
}
}
int nodeIndex = node.hash & sizeMask; // add the new node
node.setNext(newTable[nodeIndex]);
newTable[nodeIndex] = node;
table = newTable;
}
複製代碼
// get方法無需加鎖,因爲其中涉及到的共享變量都使用volatile修飾,volatile能夠保證內存可見性,因此不會讀取到過時數據。
public V get(Object key) {
Segment<K,V> s; // manually integrate access methods to reduce overhead
HashEntry<K,V>[] tab;
int h = hash(key);
long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
if ((s = (Segment<K,V>)UNSAFE.getObjectVolatile(segments, u)) != null &&
(tab = s.table) != null) {
for (HashEntry<K,V> e = (HashEntry<K,V>) UNSAFE.getObjectVolatile
(tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE);
e != null; e = e.next) {
K k;
if ((k = e.key) == key || (e.hash == h && key.equals(k)))
return e.value;
}
}
return null;
}
複製代碼
remove()的目的就是刪除key-value鍵值對。
在刪除以前,它會獲取到Segment的互斥鎖,在刪除以後,再釋放鎖。 它的刪除過程也比較簡單,它會先根據hash值,找到「Segment的HashEntry數組」中對應的「HashEntry」節點。根據Segment的數據結構,咱們知道Segment中包含一個HashEntry數組對象,而每個HashEntry本質上是一個單向鏈表。 在找到「HashEntry」節點以後,就遍歷該「HashEntry」節點對應的鏈表,找到key-value鍵值對對應的節點,而後刪除。bash
若是咱們要統計整個ConcurrentHashMap裏元素的大小,就必須統計全部Segment裏元素的大小後求和。Segment裏的全局變量count是一個volatile變量,那麼在多線程場景下,咱們是否是直接把全部Segment的count相加就能夠獲得整個ConcurrentHashMap大小了呢?不是的,雖然相加時能夠獲取每一個Segment的count的最新值,可是拿到以後可能累加前使用的count發生了變化,那麼統計結果就不許了。因此最安全的作法,是在統計size的時候把全部Segment的put,remove和clean方法所有鎖住,可是這種作法顯然很是低效。數據結構
由於在累加count操做過程當中,以前累加過的count發生變化的概率很是小,因此ConcurrentHashMap的作法是先嚐試2次經過不鎖住Segment的方式來統計各個Segment大小,若是統計的過程當中,容器的count發生了變化,則再採用加鎖的方式來統計全部Segment的大小。多線程
那麼ConcurrentHashMap是如何判斷在統計的時候容器是否發生了變化呢?使用modCount變量,在put , remove和clean方法裏操做元素前都會將變量modCount進行加1,那麼在統計size先後比較modCount是否發生變化,從而得知容器的大小是否發生變化。併發
ConcurrentHashMap是線程安全的哈希表,它是經過分段鎖來實現的。put和remove時都要先獲取互斥鎖。而對於讀取操做,它是經過volatile去實現的,HashEntry數組是volatile類型的,HashEntry中的value,next屬性也是volatile類型的。而volatile能保證可見性和有序性。以上這些方式,就是ConcurrentHashMap線程安全的實現原理。ssh