最近在寫一個多線程中控制輸出順序的系統中的一個代碼,使用了map的數據結構。具體的業務是須要一個單例的對象,而後須要在多線程的環境下實現添加和刪除的操做。部分代碼以下:html
public class UploadImageNumCache { /** * private Map<Integer, Map<Integer, Integer>> UploadImageNumMap = Collections .synchronizedMap(new HashMap<Integer, Map<Integer, Integer>>()); */ private Map<Integer, Map<Integer, Integer>> UploadImageNumMap = new ConcurrentHashMap<Integer, Map<Integer,Integer>>(); /** * */ private static UploadImageNumCache uploadImageNumCache = null; /** * 私有構造 */ private UploadImageNumCache() { } /** * 添加 * * @param documentId * 文檔id * @param pageNow * 頁碼 */ public synchronized void addUploadImageNumMap(Integer documentId, Integer pageNow) { if (UploadImageNumMap.containsKey(documentId)) { UploadImageNumMap.get(documentId).put(pageNow, Constants.IMAGE_UPLOAD_STATUS_NO); } else { Map<Integer, Integer> map = new HashMap<Integer, Integer>(); map.put(pageNow, Constants.IMAGE_UPLOAD_STATUS_NO); UploadImageNumMap.put(documentId, map); } } /** * 刪除 * * @param documentId */ public synchronized void deleteUploadImageNumMap(Integer documentId) { if (UploadImageNumMap.containsKey(documentId)) { UploadImageNumMap.remove(documentId); } } /** * 清除緩存 */ public synchronized void clearUploadImageNumMap() { if (!UploadImageNumMap.isEmpty()) { UploadImageNumMap.clear(); } } /** * 獲取單例 * * @return */ public static UploadImageNumCache getInstance() { if (uploadImageNumCache == null) { synchronized (UploadImageNumCache.class) { if (uploadImageNumCache == null) { uploadImageNumCache = new UploadImageNumCache(); } } } return uploadImageNumCache; }
從上面的代碼中能夠看到使用了map的數據結構來存放。可是在這裏是修改過的代碼。以前直接使用了hashmap。可是遇到一個很嚴重的問題就是多線程環境下的線程安全問題。咱們都知道map,hashmap不是線程安全的。記得以前的面試的時候問過list如何實現線程安全,當時沒有答上來,出來後就百度瞭如下,知道是使用的Collections .synchronizedList。可是寫map的時候居然沒有想起來。
實在是慚愧阿。今天就對這些涉及到的集合中的線程安全問題進行一個總結,多總結多進步阿。java
首先說如下 java中集合的兩種分類。底層來講的話分兩類collection和map:面試
Collection
├List
│├LinkedList
│├ArrayList
│└Vector
│ └Stack
└Set
Map
├Hashtable
├HashMap
└WeakHashMap。這個圖比較詳細的說明了。算法
咱們說集合中有些是線程安全的有例如:Vector,HashTable等。這些類之因此是線程安全的是由於,這些類是在jdk1.5以前,甚至是1.2版本的,咱們看這些類的源碼就能夠知道里面都有sychronized這個線程安全關鍵字。可是以後出的ArrayList,HashMap等,通常都是線程不安全的。也不知道是基於什麼考慮的,這個有時間能夠研究如下。今天主要對hashmap和list的線程安全實現作一個介紹,至於hashtable這個線程安全和hashmap的區別不是今天要說的內容。
編程
好了既然咱們知道map,hashmap不是線程安全的,可是如何證實呢,下面的這個程序你們能夠本身試一下,看看能不能將到5000 正確的輸出來。:數組
/** * * @author duanxj * * @version * * @date May 8, 2017 */ public class ThreadNotSafeHashmap { public static void main(String args[]) throws InterruptedException { final HashMap<String, String> firstHashMap = new HashMap<String, String>(); Thread t1 = new Thread() { public void run() { for (int i = 0; i < 2500; i++) { firstHashMap.put(String.valueOf(i), String.valueOf(i)); } } }; Thread t2 = new Thread() { public void run() { for (int j = 2500; j < 5000; j++) { firstHashMap.put(String.valueOf(j), String.valueOf(j)); } } }; t1.start(); t2.start(); Thread.sleep(1000); for (int k = 0; k < 5000; k++) { if (String.valueOf(k).equals(firstHashMap.get(String.valueOf(k)))) { System.err.println(String.valueOf(k) + ":" + firstHashMap.get(String.valueOf(k))); } } } }
並且你要多試幾回,你會發現每次跟每次少的元素都不同。這下明白爲何不是線程安全的了吧。下面說到這裏未還想說如下,有些人說多線程對hashmap進行添加和刪除的時候會拋出異常。這種說法是不許確的,雖然咱們知道在對list進行遍歷的時候不能對list作刪除操做,會拋出異常,可是在map中並不會拋出一樣的異常。至於爲何你們百度如下。緩存
上面是一個證實map線程不安全的例子,既然是線程不安全的,那總得知道爲何把:安全
總說HashMap是線程不安全的,不安全的,不安全的,那麼到底爲何它是線程不安全的呢?要回答這個問題就要先來簡單瞭解一下HashMap源碼中的使用的存儲結構
(這裏引用的是Java 8的源碼,與7是不同的)和它的擴容機制
。數據結構
下面是HashMap使用的存儲結構:多線程
1
2
3
4
5
6
7
8
|
transient
Node<K,V>[] table;
static
class
Node<K,V>
implements
Map.Entry<K,V> {
final
int
hash;
final
K key;
V value;
Node<K,V> next;
}
|
能夠看到HashMap內部存儲使用了一個Node數組(默認大小是16),而Node類包含一個類型爲Node的next的變量,也就是至關於一個鏈表,全部hash值相同(即產生了衝突)的key會存儲到同一個鏈表裏,這是他底層的存儲結構,那從這個結構中咱們分析爲何是線程不安全的呢?
我的以爲HashMap在併發時可能出現的問題主要是兩方面,首先若是多個線程同時使用put方法添加元素,並且假設正好存在兩個put的key發 生了碰撞(hash值同樣),那麼根據HashMap的實現,這兩個key會添加到數組的同一個位置,這樣最終就會發生其中一個線程的put的數據被覆 蓋。第二就是若是多個線程同時檢測到元素個數超過數組大小*loadFactor,這樣就會發生多個線程同時對Node數組進行擴容,都在從新計算元素位 置以及複製數據,可是最終只有一個線程擴容後的數組會賦給table,也就是說其餘線程的都會丟失,而且各自線程put的數據也丟失。
關於HashMap線程不安全這一點,《Java併發編程的藝術》一書中是這樣說的:
HashMap在併發執行put操做時會引發死循環,致使CPU利用率接近100%。由於多線程會致使HashMap的Node鏈表造成環形數據結構,一旦造成環形數據結構,Node的next節點永遠不爲空,就會在獲取Node時產生死循環。
哇塞,聽上去si不si好神奇,竟然會產生死循環。。。。google了一下,才知道死循環並非發生在put操做時,而是發生在擴容時。詳細的解釋能夠看下面幾篇博客:
既然知道了爲何,那就要去解決,如何解決呢,到目前爲止有下面三種解決方法:
例子:
//Hashtable Map<String, String> hashtable = new Hashtable<>(); //synchronizedMap Map<String, String> synchronizedHashMap = Collections.synchronizedMap(new HashMap<String, String>()); //ConcurrentHashMap Map<String, String> concurrentHashMap = new ConcurrentHashMap<>();
|
依次來看看。
先稍微吐槽一下,爲啥命名不是HashTable啊,看着好難受,無論了就裝做它叫HashTable吧。這貨已經不經常使用了,就簡單說說吧。HashTable源碼中是使用synchronized
來保證線程安全的,好比下面的get方法和put方法:
1
2
3
4
5
6
|
public synchronized V get(Object key) { // 省略實現 } public synchronized V put(K key, V value) { // 省略實現 }
|
因此當一個線程訪問HashTable的同步方法時,其餘線程若是也要訪問同步方法,會被阻塞住。舉個例子,當一個線程使用put方法時,另外一個線程不但不可使用put方法,連get方法都不能夠,好霸道啊!!!so~~,效率很低,如今基本不會選擇它了。
ConcurrentHashMap(如下簡稱CHM)是JUC包中的一個類,Spring的源碼中有不少使用CHM的地方。以前已經翻譯過一篇關於ConcurrentHashMap的博客,如何在java中使用ConcurrentHashMap, 裏面介紹了CHM在Java中的實現,CHM的一些重要特性和什麼狀況下應該使用CHM。須要注意的是,上面博客是基於Java 7的,和8有區別,在8中CHM摒棄了Segment(鎖段)的概念,而是啓用了一種全新的方式實現,利用CAS算法,有時間會從新總結一下。
看了一下源碼,SynchronizedMap的實現仍是很簡單的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
|
// synchronizedMap方法 public static <K,V> Map<K,V> synchronizedMap(Map<K,V> m) { return new SynchronizedMap<>(m); } // SynchronizedMap類 private static class SynchronizedMap<K,V> implements Map<K,V>, Serializable { private static final long serialVersionUID = 1978198479659022715L; private final Map<K,V> m; // Backing Map final Object mutex; // Object on which to synchronize SynchronizedMap(Map<K,V> m) { this.m = Objects.requireNonNull(m); mutex = this; } SynchronizedMap(Map<K,V> m, Object mutex) { this.m = m; this.mutex = mutex; } public int size() { synchronized (mutex) {return m.size();} } public boolean isEmpty() { synchronized (mutex) {return m.isEmpty();} } public boolean containsKey(Object key) { synchronized (mutex) {return m.containsKey(key);} } public boolean containsValue(Object value) { synchronized (mutex) {return m.containsValue(value);} } public V get(Object key) { synchronized (mutex) {return m.get(key);} } public V put(K key, V value) { synchronized (mutex) {return m.put(key, value);} } public V remove(Object key) { synchronized (mutex) {return m.remove(key);} } // 省略其餘方法 }
|
從源碼中能夠看出調用synchronizedMap()方法後會返回一個SynchronizedMap類的對象,而在SynchronizedMap類中使用了synchronized同步關鍵字來保證對Map的操做是線程安全的。
這是要靠數聽說話的時代,因此不能只靠嘴說CHM快,它就快了。寫個測試用例,實際的比較一下這三種方式的效率(源碼來源),下面的代碼分別經過三種方式建立Map對象,使用ExecutorService
來併發運行5個線程,每一個線程添加/獲取500K個元素。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
|
public class CrunchifyConcurrentHashMapVsSynchronizedMap { public final static int THREAD_POOL_SIZE = 5; public static Map<String, Integer> crunchifyHashTableObject = null; public static Map<String, Integer> crunchifySynchronizedMapObject = null; public static Map<String, Integer> crunchifyConcurrentHashMapObject = null; public static void main(String[] args) throws InterruptedException { // Test with Hashtable Object crunchifyHashTableObject = new Hashtable<>(); crunchifyPerformTest(crunchifyHashTableObject); // Test with synchronizedMap Object crunchifySynchronizedMapObject = Collections.synchronizedMap(new HashMap<String, Integer>()); crunchifyPerformTest(crunchifySynchronizedMapObject); // Test with ConcurrentHashMap Object crunchifyConcurrentHashMapObject = new ConcurrentHashMap<>(); crunchifyPerformTest(crunchifyConcurrentHashMapObject); } public static void crunchifyPerformTest(final Map<String, Integer> crunchifyThreads) throws InterruptedException { System.out.println("Test started for: " + crunchifyThreads.getClass()); long averageTime = 0; for (int i = 0; i < 5; i++) { long startTime = System.nanoTime(); ExecutorService crunchifyExServer = Executors.newFixedThreadPool(THREAD_POOL_SIZE); for (int j = 0; j < THREAD_POOL_SIZE; j++) { crunchifyExServer.execute(new Runnable() { @SuppressWarnings("unused") @Override public void run() { for (int i = 0; i < 500000; i++) { Integer crunchifyRandomNumber = (int) Math.ceil(Math.random() * 550000); // Retrieve value. We are not using it anywhere Integer crunchifyValue = crunchifyThreads.get(String.valueOf(crunchifyRandomNumber)); // Put value crunchifyThreads.put(String.valueOf(crunchifyRandomNumber), crunchifyRandomNumber); } } }); } // Make sure executor stops crunchifyExServer.shutdown(); // Blocks until all tasks have completed execution after a shutdown request crunchifyExServer.awaitTermination(Long.MAX_VALUE, TimeUnit.DAYS); long entTime = System.nanoTime(); long totalTime = (entTime - startTime) / 1000000L; averageTime += totalTime; System.out.println("2500K entried added/retrieved in " + totalTime + " ms"); } System.out.println("For " + crunchifyThreads.getClass() + " the average time is " + averageTime / 5 + " ms\n"); } }
|
測試結果:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
Test started for: class java.util.Hashtable 2500K entried added/retrieved in 2018 ms 2500K entried added/retrieved in 1746 ms 2500K entried added/retrieved in 1806 ms 2500K entried added/retrieved in 1801 ms 2500K entried added/retrieved in 1804 ms For class java.util.Hashtable the average time is 1835 ms Test started for: class java.util.Collections$SynchronizedMap 2500K entried added/retrieved in 3041 ms 2500K entried added/retrieved in 1690 ms 2500K entried added/retrieved in 1740 ms 2500K entried added/retrieved in 1649 ms 2500K entried added/retrieved in 1696 ms For class java.util.Collections$SynchronizedMap the average time is 1963 ms Test started for: class java.util.concurrent.ConcurrentHashMap 2500K entried added/retrieved in 738 ms 2500K entried added/retrieved in 696 ms 2500K entried added/retrieved in 548 ms 2500K entried added/retrieved in 1447 ms 2500K entried added/retrieved in 531 ms For class java.util.concurrent.ConcurrentHashMap the average time is 792 ms
|
例子:
1
2
3
4
5
6
7
8
|
//Hashtable
Map<String, String> hashtable =
new
Hashtable<>();
//synchronizedMap
Map<String, String> synchronizedHashMap = Collections.synchronizedMap(
new
HashMap<String, String>());
//ConcurrentHashMap
Map<String, String> concurrentHashMap =
new
ConcurrentHashMap<>();
|
依次來看看。
先稍微吐槽一下,爲啥命名不是HashTable啊,看着好難受,無論了就裝做它叫HashTable吧。這貨已經不經常使用了,就簡單說說吧。HashTable源碼中是使用synchronized
來保證線程安全的,好比下面的get方法和put方法:
1
2
3
4
5
6
|
public
synchronized
V get(Object key) {
// 省略實現
}
public
synchronized
V put(K key, V value) {
// 省略實現
}
|
因此當一個線程訪問HashTable的同步方法時,其餘線程若是也要訪問同步方法,會被阻塞住。舉個例子,當一個線程使用put方法時,另外一個線程不但不可使用put方法,連get方法都不能夠,好霸道啊!!!so~~,效率很低,如今基本不會選擇它了。
ConcurrentHashMap(如下簡稱CHM)是JUC包中的一個類,Spring的源碼中有不少使用CHM的地方。以前已經翻譯過一篇關於ConcurrentHashMap的博客,如何在java中使用ConcurrentHashMap, 裏面介紹了CHM在Java中的實現,CHM的一些重要特性和什麼狀況下應該使用CHM。須要注意的是,上面博客是基於Java 7的,和8有區別,在8中CHM摒棄了Segment(鎖段)的概念,而是啓用了一種全新的方式實現,利用CAS算法,有時間會從新總結一下。
看了一下源碼,SynchronizedMap的實現仍是很簡單的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
|
// synchronizedMap方法
public
static
<K,V> Map<K,V> synchronizedMap(Map<K,V> m) {
return
new
SynchronizedMap<>(m);
}
// SynchronizedMap類
private
static
class
SynchronizedMap<K,V>
implements
Map<K,V>, Serializable {
private
static
final
long
serialVersionUID = 1978198479659022715L;
private
final
Map<K,V> m;
// Backing Map
final
Object mutex;
// Object on which to synchronize
SynchronizedMap(Map<K,V> m) {
this
.m = Objects.requireNonNull(m);
mutex =
this
;
}
SynchronizedMap(Map<K,V> m, Object mutex) {
this
.m = m;
this
.mutex = mutex;
}
public
int
size() {
synchronized
(mutex) {
return
m.size();}
}
public
boolean
isEmpty() {
synchronized
(mutex) {
return
m.isEmpty();}
}
public
boolean
containsKey(Object key) {
synchronized
(mutex) {
return
m.containsKey(key);}
}
public
boolean
containsValue(Object value) {
synchronized
(mutex) {
return
m.containsValue(value);}
}
public
V get(Object key) {
synchronized
(mutex) {
return
m.get(key);}
}
public
V put(K key, V value) {
synchronized
(mutex) {
return
m.put(key, value);}
}
public
V remove(Object key) {
synchronized
(mutex) {
return
m.remove(key);}
}
// 省略其餘方法
}
|
從源碼中能夠看出調用synchronizedMap()方法後會返回一個SynchronizedMap類的對象,而在SynchronizedMap類中使用了synchronized同步關鍵字來保證對Map的操做是線程安全的。
這是要靠數聽說話的時代,因此不能只靠嘴說CHM快,它就快了。寫個測試用例,實際的比較一下這三種方式的效率(源碼來源),下面的代碼分別經過三種方式建立Map對象,使用ExecutorService
來併發運行5個線程,每一個線程添加/獲取500K個元素。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
|
public
class
CrunchifyConcurrentHashMapVsSynchronizedMap {
public
final
static
int
THREAD_POOL_SIZE =
5
;
public
static
Map<String, Integer> crunchifyHashTableObject =
null
;
public
static
Map<String, Integer> crunchifySynchronizedMapObject =
null
;
public
static
Map<String, Integer> crunchifyConcurrentHashMapObject =
null
;
public
static
void
main(String[] args)
throws
InterruptedException {
// Test with Hashtable Object
crunchifyHashTableObject =
new
Hashtable<>();
crunchifyPerformTest(crunchifyHashTableObject);
// Test with synchronizedMap Object
crunchifySynchronizedMapObject = Collections.synchronizedMap(
new
HashMap<String, Integer>());
crunchifyPerformTest(crunchifySynchronizedMapObject);
// Test with ConcurrentHashMap Object
crunchifyConcurrentHashMapObject =
new
ConcurrentHashMap<>();
crunchifyPerformTest(crunchifyConcurrentHashMapObject);
}
public
static
void
crunchifyPerformTest(
final
Map<String, Integer> crunchifyThreads)
throws
InterruptedException {
System.out.println(
"Test started for: "
+ crunchifyThreads.getClass());
long
averageTime =
0
;
for
(
int
i =
0
; i <
5
; i++) {
long
startTime = System.nanoTime();
ExecutorService crunchifyExServer = Executors.newFixedThreadPool(THREAD_POOL_SIZE);
for
(
int
j =
0
; j < THREAD_POOL_SIZE; j++) {
crunchifyExServer.execute(
new
Runnable() {
@SuppressWarnings
(
"unused"
)
@Override
public
void
run() {
for
(
int
i =
0
; i <
500000
; i++) {
Integer crunchifyRandomNumber = (
int
) Math.ceil(Math.random() *
550000
);
// Retrieve value. We are not using it anywhere
Integer crunchifyValue = crunchifyThreads.get(String.valueOf(crunchifyRandomNumber));
// Put value
crunchifyThreads.put(String.valueOf(crunchifyRandomNumber), crunchifyRandomNumber);
}
}
});
}
// Make sure executor stops
crunchifyExServer.shutdown();
// Blocks until all tasks have completed execution after a shutdown request
crunchifyExServer.awaitTermination(Long.MAX_VALUE, TimeUnit.DAYS);
long
entTime = System.nanoTime();
long
totalTime = (entTime - startTime) / 1000000L;
averageTime += totalTime;
System.out.println(
"2500K entried added/retrieved in "
+ totalTime +
" ms"
);
}
System.out.println(
"For "
+ crunchifyThreads.getClass() +
" the average time is "
+ averageTime /
5
+
" ms\n"
);
}
}
|
測試結果:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
Test started
for
:
class
java.util.Hashtable
2500K entried added/retrieved in
2018
ms
2500K entried added/retrieved in
1746
ms
2500K entried added/retrieved in
1806
ms
2500K entried added/retrieved in
1801
ms
2500K entried added/retrieved in
1804
ms
For
class
java.util.Hashtable the average time is
1835
ms
Test started
for
:
class
java.util.Collections$SynchronizedMap
2500K entried added/retrieved in
3041
ms
2500K entried added/retrieved in
1690
ms
2500K entried added/retrieved in
1740
ms
2500K entried added/retrieved in
1649
ms
2500K entried added/retrieved in
1696
ms
For
class
java.util.Collections$SynchronizedMap the average time is
1963
ms
Test started
for
:
class
java.util.concurrent.ConcurrentHashMap
2500K entried added/retrieved in
738
ms
2500K entried added/retrieved in
696
ms
2500K entried added/retrieved in
548
ms
2500K entried added/retrieved in
1447
ms
2500K entried added/retrieved in
531
ms
For
class
java.util.concurrent.ConcurrentHashMap the average time is
792
ms
|
這個就不用廢話了,CHM性能是明顯優於Hashtable和SynchronizedMap的,CHM花費的時間比前兩個的一半還少