關於分佈式鎖,在互聯網行業的使用場景仍是比較多的,好比電商的庫存扣減,秒殺活動,集羣定時任務執行等須要進程互斥的場景。而實現分佈式鎖的手段也不少,你們比較常見的就是redis跟zookeeper,今天咱們主要介紹的是基於zookeeper實現的分佈式鎖。java
這篇文章主要借用Curator框架對zk分佈式鎖的實現思路,你們理解了之後徹底能夠本身手動實現一遍,可是在工做中仍是建議使用成熟的開源框架,不少坑別人已經幫咱們踩好了,除非萬不得已,須要高度定製符合本身項目的需求的時候,纔開始自行封裝吧。redis
既然是基於zookeeper的分佈式鎖,首先確定要對這個zookeeper有必定了解,這裏就不過多的進行講解,只對其跟分佈式鎖有關聯的特性作一個簡單的介紹,更多詳細的功能特性你們能夠參閱官方文檔。api
zookeeper維護着相似文件系統的數據結構,它總共有四種類型的節點性能優化
好,當咱們簡單瞭解了zk的節點類型之後,如今正式的分析Curator分佈式鎖的實現原理。這裏咱們定義了一個「/curator_lock」鎖節點用來存放相關客戶端建立的臨時順序節點。bash
假設兩個客戶端ClientA跟ClientB同時去爭奪一個鎖,此時ClientA先行一步得到了鎖,那麼它將會在咱們的zk上建立一個「/curator_lock/xxxxx-0000000000」的臨時順序節點。微信
接着它會拿到「/curator_lock/」鎖節點下的全部子節點,由於這些節點是有序的,這時候會判斷它所建立的節點是否排在第一位(也就是序號最小),因爲ClientA是第一個建立節點的的客戶端,必然是排在第一位,因此它也就拿到了鎖。markdown
[zk: localhost:2182(CONNECTED) 4] ls /curator_lock [_c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000] 複製代碼
這個時候ClientB也來了,按照一樣的步驟,先是在「/curator_lock/」下建立一個臨時順序節點「/curator_lock/xxxxx-0000000001」,接着也是得到該節點下的全部子節點信息,並比對本身生成的節點序號是否最小,因爲此時序號最小的節點是ClientA建立的,而且還沒釋放掉,因此ClientB本身就拿不到鎖。數據結構
[zk: localhost:2182(CONNECTED) 4] ls /curator_lock [_c_2a8198e4-2039-4a3c-8606-39c65790d637-lock-0000000001, _c_f3f38067-8bff-47ef-9628-e638cfaad77e-lock-0000000000] 複製代碼
既然ClientB拿不到鎖,也不會放棄,它會對本身的前一個節點加上監聽器(zk提供的api實現),只要監聽到前一個節點被刪除了,也就是釋放了鎖,就會立刻從新執行獲取鎖的操做。框架
當後面的ClientC,ClientD...過來的時候也是如此,變化的只是節點上的編號,它會根據Client鏈接的數量而不斷增長。分佈式
可能你們還會擔憂,萬一個人獲取到鎖的客戶端宕機了怎麼辦,會不會不釋放鎖?其實上面已經解答了這個問題,因爲Curator使用的是臨時順序節點來實現的分佈式鎖,只要客戶端與zk鏈接斷開,該節點也就消失了,至關於釋放了鎖。
下面代碼展現了Curator的基本使用方法,僅做爲參考實例,請勿在生產環境使用的這麼隨意。
CuratorFramework client = CuratorFrameworkFactory.newClient("127.0.0.1:2182", 5000,10000, new ExponentialBackoffRetry(1000, 3)); client.start(); InterProcessMutex interProcessMutex = new InterProcessMutex(client, "/curator_lock"); //加鎖 interProcessMutex.acquire(); //業務邏輯 //釋放鎖 interProcessMutex.release(); client.close(); 複製代碼
咱們在搞懂了原理以後,就能夠拋棄Curator,本身動手實現一個分佈式鎖了,相信你們實現基本的功能都是沒問題的,可是要作到生產級別,可能仍是要在細節上下功夫,好比說一些異常處理,性能優化等因素。
微信公衆號《深夜裏的程序猿》 - 分享最乾的乾貨