解決的問題:java
總結:經過一個 MQ 的發佈訂閱消息模型(Pub/Sub), 系統 A 跟其餘系統就完全解耦了。mysql
通常互聯網類的企業,對用戶的直接操做,通常要求每一個請求都必須在 200ms之內,對用戶幾乎是無感知的。redis
提升高延時接口sql
高峯期每秒 5000 個請求,每秒對 MySQL 執行 5000 條 SQL(通常MySQL每秒 2000 個請求差很少了),若是MySQL被打死,而後整個系統就崩潰,用戶就沒辦法使用系統了。可是高峯期過了以後,每秒鐘可能就 50 個請求,對整個系統沒有任何壓力。數據庫
5000 個請求寫入到 MQ 裏面,系統 A 每秒鐘最多隻能處理 2000 個請求(MySQL 每秒鐘最多處理 2000 個請求),系統 A 從 MQ 裏慢慢拉取請求,每秒鐘拉取 2000 個請求。MQ,每秒鐘 5000 個請求進來,結果只有 2000 個請求出去,結果致使在高峯期(21小時),可能有幾十萬甚至幾百萬的請求積壓在 MQ 中,這個是正常的,由於過了高峯期以後,每秒鐘就 50 個請求,可是系統 A 仍是會按照每秒 2000 個該請求的速度去處理。只要高峯期一過,系統 A 就會快速的將積壓的消息給解決掉。(算一筆帳,每秒積壓在 MQ 裏消息有 3000 條,一分鐘就會積壓 18W 條消息,一個小時就會積壓 1000 萬條消息。等高峯期一過,差很少須要 1 個多小時就能夠把 1000W 條積壓的消息給處理掉)segmentfault
MQ 可能掛掉,致使整個系統崩潰緩存
可能發重複消息,致使插入重複數據;消息丟了;消息順序亂了; 系統 B,C,D 掛了,致使 MQ 消息積累,磁盤滿了;性能優化
原本應該A,B,C,D 都執行成功了再返回,結果A,B,C 執行成功 D 失敗網絡
特性 | ActiveMQ | RabbitMQ | RocketMQ | Kafka |
---|---|---|---|---|
單機吞吐量 | 萬級(一秒1W~2W 左右請求) | 萬級 | 十萬級 | 十萬級 |
時效性 | ms級 | 微秒級,這個是rabbitmq一大特色,延遲最低的 | ms級 | ms級之內 |
可用性 | 高,基於主從架構高可用性 | 高,基於主從架構高可用性 | 很是高,分佈式架構 | 很是高,Kafka是分佈式的,一個數據多個副本,少數機器宕機,不會丟失數據,不會致使不可用 |
消息可靠性 | 有較低機率丟失數據 | 通過參數優化配置,能夠作到 0 丟失 | 通過參數優化配置,消息能夠作到 0 丟失 | |
優劣勢總結 | 優勢:很是成熟,功能強大,在業內大量的公司和項目都有應用。缺點:偶爾會有較低機率丟失消息,而如今社區以及國內應用愈來愈少,官方社區對ActiveMQ 5.x維護愈來愈少,並且確實主要是基於解耦和異步來用,較少在大規模吞吐的場景中使用 | 優勢:erlang語言開發,性能極其好,延時很低,管理界面很是棒,社區活躍 缺點:RabbitMQ確實吞吐量會低一些(單機幾萬),這個是由於他的實現機制比較重。並且 erlang 開發,國內有幾個實力作 erlang源碼級別的研究和定製?缺少掌控,依賴開源社區的維護和修復bug。並且 RabbitMQ集羣動態擴展會很麻煩,其實主要是 erlang語言自己帶來的問題,很難讀源碼,很難定製和掌控 | 優勢:接口簡單易用,阿里保障,日處理消息上百億之多,能夠作到大規模吞吐,性能也很是好,分佈式擴展也很方便,社區維護還能夠,可靠性和可用性都 OK,還能夠支撐大規模的topic數量,支持複雜 MQ 業務場景,源碼是 java,方便公司定製和掌控 缺點:社區活躍通常,接口不是按照標準的 JMS 規範走的,有些系統遷移須要修改大量代碼,阿里出臺的技術,有可能這個技術被拋棄。 | 優勢:提供較少的核心功能,可是提升超高的吞吐量,ms級的延遲,極高的可用性以及可靠性,並且分佈式能夠任意擴展,Kafka最好是支撐較少的topic數量來保證極高的吞吐量。缺點:有可能消息重複消費,會對數據準確性形成影響,大數據領域中以及日誌採集,這點影響能夠忽略,自然適合大數據實時計算以及日誌收集 |
建議:中小型公司 RabbitMQ 大公司:RocketMQ 大數據實時計算:Kafka多線程
RabbitMQ有三種模式:單機模式 、普通集羣模式、鏡像集羣模式
demo級
隊列的元數據存在於多個實例中,可是消息不存在多個實例中,每次
多臺機器上啓動多個 rabbitmq 實例,每一個機器啓動一個。
優勢:能夠多個機器消費消息,可 以提升消費的吞吐量
缺點:可能會在 rabbitmq 內部產生大量的數據傳輸 ;可用性基本沒保障,queue 所在機器宕機,就沒辦法消費了
沒有高可用性可言
隊列的元數據和消息都會存在於多個實例中,每次寫消息到 queue的時候,都會自動把消息到多個實例的 queue 裏進行消息同步。也就 是每一個節點上都有這個 queue 的一個完整鏡像(這個 queue的所有數據)。任何一個節點宕機了,其餘節點還包含這個 queue的完整數據,其餘 consumer 均可以到其餘活着的節點上去消費數據都是 OK 的。缺點:不是分佈式的,若是這個 queue的數據量很大,大到這個機器上的容量沒法容納 。
開啓鏡像集羣模式方法: 管理控制檯,Admin頁面下,新增一個鏡像集羣模式的策略,指定的時候能夠要求數據同步到全部節點,也能夠要求同步到指定數量的節點,而後你再次建立 queue 的時候 ,應用這個策略,就 會自動將數據同步到其餘的節點上去。
broker進程就是kafka在每臺機器上啓動的本身的一個進程。每臺機器+機器上的broker進程,就能夠認爲是 kafka集羣中的一個節點。
你建立一個 topic,這個topic能夠劃分爲多個 partition,每一個 partition 能夠存在於不一樣的 broker 上,每一個 partition就存放一部分數據。
這就是自然的分佈式消息隊列,也就是說一個 topic的數據,是分散放在 多個機器上的,每一個機器就放一部分數據。
分佈式的真正含義是每一個節點只放一部分數據,而不是完整數據(完整數據就是HA、集羣機制)
Kafka 0.8版本以前是沒有 HA 機制的,任何一個 broker 宕機了,那麼就缺失一部分數據。
Kafka 0.8之後,提供了 HA 機制,就是 replica 副本機制。每一個 partition的數據都會同步到其餘機器上,造成本身的多個 replica 副本。而後全部 replica 會選舉一個 leader。那麼生產者、消費者都會和這個 leader 打交道,而後其餘 replica 就是 follow。寫的時候,leader 負責把數據同步到全部 follower上去,讀的時候就直接讀 leader 上的數據便可。若是某個 broker宕機了,恰好也是 partition的leader,那麼此時會選舉一個新的 leader出來,你們繼續讀寫那個新的 leader便可,這個就 是所謂的高可用性。
leader和follower的同步機制:
寫數據的時候,生產者就寫 leader,而後 leader將數據落地寫本地磁盤,接着其餘 follower 本身主動從 leader來pull數據。一旦全部 follower同步好數據了,就會發送 ack給 leader,leader收到全部 follower的 ack以後,就會返回寫成功的消息給生產者。
消費的時候,只會從 leader去讀,可是隻有一個消息已經被全部 follower都同步成功返回 ack的時候,這個消息纔會被消費者讀到。
MQ 只能保證消息不丟,不能保證重複發送
每條消息都有一個 offset 表明 了這個消息的順序的序號,按照數據進入 kafka的順序,kafka會給每條數據分配一個 offset,表明了這個是數據的序號,消費者從 kafka去消費的時候,按照這個順序去消費,消費者會去提交 offset,就是告訴 kafka已經消費到 offset=153這條數據了 ;zk裏面就記錄了消費者當前消費到了 offset =幾的那條消息;假如此時消費者系統被重啓,重啓以後,消費者會找kafka,讓kafka把上次我消費到的那個地方後面的數據繼續給我傳遞過來。
重複消息緣由:(主要發生在消費者重啓後)
消費者不是說消費完一條數據就立馬提交 offset的,而是定時按期提交一次 offset。消費者若是再準備提交 offset,可是還沒提交 offset的時候,消費者進程重啓了,那麼此時已經消費過的消息的 offset並無提交,kafka也就不知道你已經消費了 offset= 153那條數據,這個時候kafka會給你發offset=152,153,154的數據,此時 offset = 152,153的消息重複消費了
冪等:一個數據或者一個請求,給你重複來屢次,你得確保對應的數據是不會改變的,不能出錯。
思路:
MQ 傳遞很是核心的消息,好比:廣告計費系統,用戶點擊一次廣告,扣費一塊錢,若是扣費的時候消息丟了,則會不斷少錢,聚沙成塔,對公司是一個很大的損失。
問題 1解決方案:
事務機制:(通常不採用,同步的,生產者發送消息會同步阻塞卡住等待你是成功仍是失敗。會致使生產者發送消息的吞吐量降下來)
channel.txSelect try { //發送消息 } catch(Exception e){ channel.txRollback; //再次重試發送這條消息 } channel.txCommit;
confirm機制:(通常採用這種機制,異步的模式,不會阻塞,吞吐量會比較高)
public void ack(String messageId){ } public void nack(String messageId){ //再次重發一次這個消息 }
問題 2 解決方案:
持久化到磁盤
缺點:可能會有一點點丟失數據的可能,消息恰好寫到了 rabbitmq中,可是還沒來得及持久化到磁盤上,結果不巧, rabbitmq掛了,會致使內存裏的一點點數據會丟失。
問題 3 解決方案:
緣由:消費者打開了 autoAck機制(消費到一條消息,還在處理中,還沒處理完,此時消費者自動 autoAck了,通知 rabbitmq說這條消息已經消費了,此時不巧,消費者系統宕機了,那條消息丟失了,還沒處理完,並且 rabbitmq還覺得這個消息已經處理掉了)
解決方案:關閉 autoAck,本身處理完了一條消息後,再發送 ack給 rabbitmq,若是此時還沒處理完就宕機了,此時rabbitmq沒收到你發的ack消息,而後 rabbitmq 就會將這條消息從新分配給其餘的消費者去處理。
緣由:消費者消費到那條消息後,自動提交了 offset,kafka覺得你已經消費好了這條消息,結果消費者掛了,這條消息就丟了。
例子:消費者消費到數據後寫到一個內存 queue裏緩存下,消息自動提交 offset,重啓了系統,結果會致使內存 queue 裏還沒來得及處理的數據丟失。
解決方法:kafka會自動提交 offset,那麼只要關閉自動提交 offset,在處理完以後本身手動提交,能夠保證數據不會丟。可是此時確實仍是會重複消費,好比恰好處理完,還沒提交 offset,結果本身掛了,此時確定會重複消費一次 ,作好冪等便可。
緣由:kafka 某個 broker 宕機,而後從新選舉 partition 的 leader時,此時其餘的 follower 恰好還有一些數據沒有同步,結果此時 leader掛了,而後選舉某個 follower成 leader以後,就丟掉了以前leader裏未同步的數據。
例子:kafka的leader機器宕機,將 follower 切換爲 leader以後,發現數據丟了
解決方案:(保證 kafka broker端在 leader發生故障,或者leader切換時,數據不會丟)
按 2 的方案設置了 ack =all,必定不會丟。它會要求 leader 接收到消息,全部的 follower 都同步 到了消息以後,才認爲本次寫成功。若是沒知足這個條件,生產者會無限次重試 。
背景:mysql binlog 同步的系統,在mysql裏增刪改一條數據,對應出來了增刪改 3 條binlog,接着這 3 條binlog發送到 MQ 裏面,到消費出來依次執行,起碼是要保證順序的吧,否則順序變成了 刪除、修改、增長。日同步數據達到上億,mysql->mysql,好比大數據 team,須要同步一個mysql庫,來對公司的業務系統的數據作各類複雜的操做。
場景:
須要保證順序的數據放到同一個queue裏
寫入一個 partition中的數據必定是有順序的。
生產者在寫的時候,能夠指定一個 key,好比訂單id做爲key,那麼訂單相關的數據,必定會被分發到一個 partition中區,此時這個 partition中的數據必定是有順序的。Kafka 中一個 partition 只能被一個消費者消費。消費者從partition中取出數據的時候 ,必定是有順序的。
若是消費者單線程消費+處理,若是處理比較耗時,處理一條消息是幾十ms,一秒鐘只能處理幾十條數據,這個吞吐量過低了。確定要用多線程去併發處理,壓測消費者4 核 8G 單機,32 條線程,最高每秒能夠處理上千條消息
消費端出了問題,不消費了或者消費極其慢。接着坑爹了,你的消息隊列集羣的磁盤都快寫滿了 ,都沒人消費,怎麼辦?積壓了幾個小時,rabbitmq設置了消息過時時間後就沒了,怎麼辦?
例如:每次消費以後都要寫 mysql,結果mysql掛了,消費端 hang 不動了。
消費者本地依賴的一個東西掛了,致使消費者掛了。
長時間沒處理消費,致使 mq 寫滿了。
場景:幾千萬條數據再 MQ 裏積壓了七八個小時
一個消費者一秒是 1000 條,一秒 3 個消費者是 3000 條,一分鐘是 18W 條,1000 多 W 條須要一個小時恢復。
步驟:
原來 3 個消費者須要 1 個小時能夠搞定,如今 30 個臨時消費者須要 10 分鐘就能夠搞定。
若是用的 rabbitmq,而且設置了過時時間,若是此消費在 queue裏積壓超過必定的時間會被 rabbitmq清理掉,數據直接搞丟。
這個時候開始寫程序,將丟失的那批 數據查出來,而後從新灌入mq裏面,把白天丟的數據補回來。
若是消息積壓mq,長時間沒被處理掉,致使mq快寫完滿了,你臨時寫一個程序,接入數據來消費,寫到一個臨時的mq裏,再讓其餘消費者慢慢消費 或者消費一個丟棄一個,都不要了,快速消費掉全部的消息,而後晚上補數據。
本文由博客一文多發平臺 OpenWrite 發佈!