但一旦涉及到分庫分表,就會引伸出分佈式系統中惟一主鍵ID的生成問題,永不遷移數據和避免熱點的文章中要求須要惟一ID的特性:mysql
整個系統ID惟一redis
ID是數字類型,並且是趨勢遞增的算法
ID簡短,查詢效率快sql
什麼是遞增?如:第一次生成的ID爲12,下一次生成的ID是13,再下一次生成的ID是14。這個就是生成ID遞增。數據庫
什麼是趨勢遞增?如:在一段時間內,生成的ID是遞增的趨勢。如:再一段時間內生成的ID在【0,1000】之間,過段時間生成的ID在【1000,2000】之間。但在【0-1000】區間內的時候,ID生成有可能第一次是12,第二次是10,第三次是14。安全
那有什麼方案呢?往下看!bash
2.一、UUID服務器
這個方案是小夥伴們第一個能過考慮到的方案網絡
優勢:併發
代碼實現簡單。
本機生成,沒有性能問題
由於是全球惟一的ID,因此遷移數據容易
缺點:
每次生成的ID是無序的,沒法保證趨勢遞增
UUID的字符串存儲,查詢效率慢
存儲空間大
ID本事無業務含義,不可讀
應用場景:
相似生成token令牌的場景
不適用一些要求有趨勢遞增的ID場景
此UUID方案是不適用老顧的需求。
這個方案就是利用了MySQL的主鍵自增auto_increment,默認每次ID加1。
優勢:
數字化,id遞增
查詢效率高
具備必定的業務可讀
缺點:
存在單點問題,若是mysql掛了,就無法生成iD了
數據庫壓力大,高併發抗不住
這個方案就是解決mysql的單點問題,在auto_increment基本上面,設置step步長
每臺的初始值分別爲1,2,3...N,步長爲N(這個案例步長爲4)
優勢:
解決了單點問題
缺點:
一旦把步長定好後,就沒法擴容;並且單個數據庫的壓力大,數據庫自身性能沒法知足高併發
應用場景:
數據不須要擴容的場景
此方案也不知足老顧的需求,由於不方便擴容(記住這個方案,嘿嘿)
這個算法網上介紹了不少,老顧這裏就不詳細介紹。雪花算法生成64位的二進制正整數,而後轉換成10進制的數。64位二進制數由以下部分組成:
1位標識符:始終是0
41位時間戳:41位時間截不是存儲當前時間的時間截,而是存儲時間截的差值(當前時間截 - 開始時間截 )獲得的值,這裏的的開始時間截,通常是咱們的id生成器開始使用的時間,由咱們程序來指定的
10位機器標識碼:能夠部署在1024個節點,若是機器分機房(IDC)部署,這10位能夠由 5位機房ID + 5位機器ID 組成
12位序列:毫秒內的計數,12位的計數順序號支持每一個節點每毫秒(同一機器,同一時間截)產生4096個ID序號
優勢:
此方案每秒可以產生409.6萬個ID,性能快
時間戳在高位,自增序列在低位,整個ID是趨勢遞增的,按照時間有序遞增
靈活度高,能夠根據業務需求,調整bit位的劃分,知足不一樣的需求
缺點:
依賴機器的時鐘,若是服務器時鐘回撥,會致使重複ID生成
在分佈式場景中,服務器時鐘回撥會常常遇到,通常存在10ms之間的回撥;小夥伴們就說這點10ms,很短能夠不考慮吧。但此算法就是創建在毫秒級別的生成方案,一旦回撥,就頗有可能存在重複ID。
此方案暫不符合老顧的需求(嘿嘿,看看怎麼優化這個方案,小夥伴們先記住)
利用redis的incr原子性操做自增,通常算法爲:
年份 + 當天距當年第多少天 + 天數 + 小時 + redis自增
優勢:
有序遞增,可讀性強
缺點:
佔用帶寬,每次要向redis進行請求
總體測試了這個性能以下:
需求:同時10萬個請求獲取ID一、併發執行完耗時:9s左右
二、單任務平均耗時:74ms
三、單線程最小耗時:不到1ms
四、單線程最大耗時:4.1s
複製代碼
性能還能夠,若是對性能要求不是過高的話,這個方案基本符合老顧的要求。
但不徹底符合業務老顧但願id從 1 開始趨勢遞增。(固然算法能夠調整爲 就一個 redis自增,不須要什麼年份,多少天等)。
以上介紹了常見的幾種分佈式ID生成方案。一線大廠的分佈式ID方案絕沒有這個簡單,他們對高併發,高可用的要求很高。
如Redis方案中,每次都要去Redis去請求,有網絡請求耗時,併發強依賴了Redis。這個設計是有風險的,一旦Redis掛了,整個系統不可用。
並且一線大廠也會考慮到ID安全性的問題,如:Redis方案中,用戶是能夠預測下一個ID號是多少,由於算法是遞增的。
這樣的話競爭對手第一天中午12點下個訂單,就能夠看到平臺的訂單ID是多少,次日中午12點再下一單,又平臺訂單ID到多少。這樣就能夠猜到平臺1天能產生多少訂單了,這個是絕對不容許的,公司絕密啊。
上述咱們介紹了利用數據庫的自增主鍵的特性,能夠實現分佈式ID;這個ID比較簡短明瞭,適合作userId,正好符合如何永不遷移數據和避免熱點? 根據服務器指標分配數據量(揭祕篇)文章中的ID的需求。但這個方案有嚴重的問題:
一旦步長定下來,不容易擴容
數據庫壓力山大
小夥伴們看看怎麼優化這個方案。先看數據庫壓力大,爲何壓力大?是由於咱們每次獲取ID的時候,都要去數據庫請求一次。那咱們能夠不能夠不要每次去取?
思路咱們能夠請求數據庫獲得ID的時候,可設計成得到的ID是一個ID區間段。
咱們看上圖,有張ID規則表:
一、id表示爲主鍵,無業務含義。
二、biz_tag爲了表示業務,由於總體系統中會有不少業務須要生成ID,這樣能夠共用一張表維護
三、max_id表示如今總體系統中已經分配的最大ID
四、desc描述
五、update_time表示每次取的ID時間
咱們再來看看總體流程:
一、【用戶服務】在註冊一個用戶時,須要一個用戶ID;會請求【生成ID服務(是獨立的應用)】的接口
二、【生成ID服務】會去查詢數據庫,找到user_tag的id,如今的max_id爲0,step=1000
三、【生成ID服務】把max_id和step返回給【用戶服務】;而且把max_id更新爲max_id = max_id + step,即更新爲1000
四、【用戶服務】得到max_id=0,step=1000;
五、 這個用戶服務能夠用ID=【max_id + 1,max_id+step】區間的ID,即爲【1,1000】
六、【用戶服務】會把這個區間保存到jvm中
七、【用戶服務】須要用到ID的時候,在區間【1,1000】中依次獲取id,可採用AtomicLong中的getAndIncrement方法。
八、若是把區間的值用完了,再去請求【生產ID服務】接口,獲取到max_id爲1000,便可以用【max_id + 1,max_id+step】區間的ID,即爲【1001,2000】
這個方案就很是完美的解決了數據庫自增的問題,並且能夠自行定義max_id的起點,和step步長,很是方便擴容。
並且也解決了數據庫壓力的問題,由於在一段區間內,是在jvm內存中獲取的,而不須要每次請求數據庫。即便數據庫宕機了,系統也不受影響,ID還能維持一段時間。
以上方案中,若是是多個用戶服務,同時獲取ID,同時去請求【ID服務】,在獲取max_id的時候會存在併發問題。
如用戶服務A,取到的max_id=1000 ;用戶服務B取到的也是max_id=1000,那就出現了問題,Id重複了。那怎麼解決?
其實方案不少,加分佈式鎖,保證同一時刻只有一個用戶服務獲取max_id。固然也能夠用數據庫自身的鎖去解決。
利用事務方式加行鎖,上面的語句,在沒有執行完以前,是不容許第二個用戶服務請求過來的,第二個請求只能阻塞。
上圖中,多個用戶服務獲取到了各自的ID區間,在高併發場景下,ID用的很快,若是3個用戶服務在某一時刻都用完了,同時去請求【ID服務】。由於上面提到的競爭問題,全部只有一個用戶服務去操做數據庫,其餘二個會被阻塞。
小夥伴就會問,有這麼巧嗎?同時ID用完。咱們這裏舉的是3個用戶服務,感受機率不大;若是是100個用戶服務呢?機率是否是一會兒大了。
出現的現象就是一下子忽然系統耗時變長,一下子好了,就是這個緣由致使的,怎麼去解決?
在通常的系統設計中,雙buffer會常常看到,怎麼去解決上面的問題也能夠採用雙buffer方案。
在設計的時候,採用雙buffer方案,上圖的流程:
一、當前獲取ID在buffer1中,每次獲取ID在buffer1中獲取
二、當buffer1中的Id已經使用到了100,也就是達到區間的10%
三、達到了10%,先判斷buffer2中有沒有去獲取過,若是沒有就當即發起請求獲取ID線程,此線程把獲取到的ID,設置到buffer2中。
四、若是buffer1用完了,會自動切換到buffer2
五、buffer2用到10%了,也會啓動線程再次獲取,設置到buffer1中
六、依次往返
雙buffer的方案,小夥伴們有沒有感受很酷,這樣就達到了業務場景用的ID,都是在jvm內存中得到的,今後不須要到數據庫中獲取了。容許數據庫宕機時間更長了。
由於會有一個線程,會觀察何時去自動獲取。兩個buffer之間自行切換使用。就解決了突發阻塞的問題。
固然此方案美團還作了一些別的優化,監控ID使用頻率,自動設置步長step,從而達到對ID節省使用。