http://blog.csdn.net/caisini_vc/article/details/48007297linux
Kafka是分佈式發佈-訂閱消息系統。它最初由LinkedIn公司開發,以後成爲Apache項目的一部分。Kafka是一個分佈式的,可劃分的,冗餘備份的持久性的日誌服務。它主要用於處理活躍的流式數據。算法
在大數據系統中,經常會碰到一個問題,整個大數據是由各個子系統組成,數據須要在各個子系統中高性能,低延遲的不停流轉。傳統的企業消息系統並非很是適合大規模的數據處理。爲了已在同時搞定在線應用(消息)和離線應用(數據文件,日誌)Kafka就出現了。Kafka能夠起到兩個做用:編程
Kafka主要特色:緩存
Kafka的架構:服務器
Kayka的總體架構很是簡單,是顯式分佈式架構,producer、broker(kafka)和consumer均可以有多個。Producer,consumer實現Kafka註冊的接口,數據從producer發送到broker,broker承擔一箇中間緩存和分發的做用。broker分發註冊到系統中的consumer。broker的做用相似於緩存,即活躍的數據和離線處理系統之間的緩存。客戶端和服務器端的通訊,是基於簡單,高性能,且與編程語言無關的TCP協議。幾個基本概念:架構
消息發送的流程:負載均衡
Kayka的設計:框架
一、吞吐量運維
高吞吐是kafka須要實現的核心目標之一,爲此kafka作了如下一些設計:編程語言
二、負載均衡
三、拉取系統
因爲kafka broker會持久化數據,broker沒有內存壓力,所以,consumer很是適合採起pull的方式消費數據,具備如下幾點好處:
四、可擴展性
當須要增長broker結點時,新增的broker會向zookeeper註冊,而producer及consumer會根據註冊在zookeeper上的watcher感知這些變化,並及時做出調整。
Kayka的應用場景:
一、消息隊列
比起大多數的消息系統來講,Kafka有更好的吞吐量,內置的分區,冗餘及容錯性,這讓Kafka成爲了一個很好的大規模消息處理應用的解決方案。消息系統通常吞吐量相對較低,可是須要更小的端到端延時,並嚐嚐依賴於Kafka提供的強大的持久性保障。在這個領域,Kafka足以媲美傳統消息系統,如ActiveMR或RabbitMQ。
二、行爲跟蹤
Kafka的另外一個應用場景是跟蹤用戶瀏覽頁面、搜索及其餘行爲,以發佈-訂閱的模式實時記錄到對應的topic裏。那麼這些結果被訂閱者拿到後,就能夠作進一步的實時處理,或實時監控,或放到Hadoop/離線數據倉庫裏處理。
三、元信息監控
做爲操做記錄的監控模塊來使用,即聚集記錄一些操做信息,能夠理解爲運維性質的數據監控吧。
四、日誌收集
日誌收集方面,其實開源產品有不少,包括Scribe、Apache Flume。不少人使用Kafka代替日誌聚合(log aggregation)。日誌聚合通常來講是從服務器上收集日誌文件,而後放到一個集中的位置(文件服務器或HDFS)進行處理。然而Kafka忽略掉文件的細節,將其更清晰地抽象成一個個日誌或事件的消息流。這就讓Kafka處理過程延遲更低,更容易支持多數據源和分佈式數據處理。比起以日誌爲中心的系統好比Scribe或者Flume來講,Kafka提供一樣高效的性能和由於複製致使的更高的耐用性保證,以及更低的端到端延遲。
五、流處理
這個場景可能比較多,也很好理解。保存收集流數據,以提供以後對接的Storm或其餘流式計算框架進行處理。不少用戶會將那些從原始topic來的數據進行階段性處理,彙總,擴充或者以其餘的方式轉換到新的topic下再繼續後面的處理。例如一個文章推薦的處理流程,多是先從RSS數據源中抓取文章的內容,而後將其丟入一個叫作「文章」的topic中;後續操做多是須要對這個內容進行清理,好比回覆正常數據或者刪除重複數據,最後再將內容匹配的結果返還給用戶。這就在一個獨立的topic以外,產生了一系列的實時數據處理的流程。Strom和Samza是很是著名的實現這種類型數據轉換的框架。
六、事件源
事件源是一種應用程序設計的方式,該方式的狀態轉移被記錄爲按時間順序排序的記錄序列。Kafka能夠存儲大量的日誌數據,這使得它成爲一個對這種方式的應用來講絕佳的後臺。好比動態彙總(News feed)。
七、持久性日誌(commit log)
Kafka能夠爲一種外部的持久性日誌的分佈式系統提供服務。這種日誌能夠在節點間備份數據,併爲故障節點數據回覆提供一種從新同步的機制。Kafka中日誌壓縮功能爲這種用法提供了條件。在這種用法中,Kafka相似於Apache BookKeeper項目。
Kayka的設計要點:
一、直接使用Linux 文件系統的cache,來高效緩存數據。
二、採用linux Zero-Copy提升發送性能。傳統的數據發送須要發送4次上下文切換,採用sendfile系統調用以後,數據直接在內核態交換,系統上下文切換減小爲2次。根據測試結果,能夠提升60%的數據發送性能。Zero-Copy詳細的技術細節能夠參考:https://www.ibm.com/developerworks/linux/library/j-zerocopy/
三、數據在磁盤上存取代價爲O(1)。kafka以topic來進行消息管理,每一個topic包含多個part(ition),每一個part對應一個邏輯log,有多個segment組成。每一個segment中存儲多條消息(見下圖),消息id由其邏輯位置決定,即從消息id可直接定位到消息的存儲位置,避免id到位置的額外映射。每一個part在內存中對應一個index,記錄每一個segment中的第一條消息偏移。發佈者發到某個topic的消息會被均勻的分佈到多個part上(隨機或根據用戶指定的回調函數進行分佈),broker收到發佈消息往對應part的最後一個segment上添加該消息,當某個segment上的消息條數達到配置值或消息發佈時間超過閾值時,segment上的消息會被flush到磁盤,只有flush到磁盤上的消息訂閱者才能訂閱到,segment達到必定的大小後將不會再往該segment寫數據,broker會建立新的segment。
四、顯式分佈式,即全部的producer、broker和consumer都會有多個,均爲分佈式的。Producer和broker之間沒有負載均衡機制。broker和consumer之間利用zookeeper進行負載均衡。全部broker和consumer都會在zookeeper中進行註冊,且zookeeper會保存他們的一些元數據信息。若是某個broker和consumer發生了變化,全部其餘的broker和consumer都會獲得通知。