Appache Flume 中文介紹(轉)

Flume 是什麼java

       Apache Flume是一個高可靠、高可用的分佈式的海量日誌收集、聚合、傳輸系統。它能夠從不一樣的日誌源採集數據並集中存儲。算法

Flume也算是Hadoop生態系統的一部分,源於Cloudera,目前是Apache基金會的頂級項目之一。Flume有兩條產品線,0.9.x版本和1.x版本。apache

官網:http://flume.appache.org/api

  • 收集、聚合事件流數據的分佈式框架
  • 一般用於log數據
  • 採用ad-hoc方案,明顯優勢以下:
    • 可靠的、可伸縮、可管理、可定製、高性能
    • 聲明式配置,能夠動態更新配置
    • 提供上下文路由功能
    • 支持負載均衡和故障轉移
    • 功能豐富
    • 徹底的可擴展

核心概念緩存

  • Event
  • Client
  • Agent
    • Sources、Channels、Sinks
    • 其餘組件:Interceptors、Channel Selectors、Sink Processor

核心概念:Event
app

Event是Flume數據傳輸的基本單元。flume以事件的形式將數據從源頭傳送到最終的目的。Event由可選的hearders和載有數據的一個byte array構成。負載均衡

  • 載有的數據對flume是不透明的
  • Headers是容納了key-value字符串對的無序集合,key在集合內是惟一的。
  • Headers能夠在上下文路由中使用擴展
1   public interface Event { 2         public Map<String, String> getHeaders(); 3         public void setHeaders(Map<String, String> headers); 4         public byte[] getBody(); 5         public void setBody(byte[] body); 6     }  

 

1     public interface Event { 2         public Map<String, String> getHeaders(); 3         public void setHeaders(Map<String, String> headers); 4         public byte[] getBody(); 5         public void setBody(byte[] body); 6     }  

核心概念:Client框架

Clinet是一個將原始log包裝成events而且發送它們到一個或多個agent的實體。分佈式

  • 例如目的是從數據源系統中解耦Flume
    • Flume log4j Appender
    • 可使用Client SDK (org.apache.flume.api)定製特定的Client
  • 在flume的拓撲結構中不是必須的

核心概念:Agentoop

一個Agent包含Sources, Channels, Sinks和其餘組件,它利用這些組件將events從一個節點傳輸到另外一個節點或最終目的。

  • agent是flume流的基礎部分。
  • flume爲這些組件提供了配置、生命週期管理、監控支持。

核心概念:Source

Source負責接收events或經過特殊機制產生events,並將events批量的放到一個或多個Channels。有event驅動和輪詢2種類型的Source

  • 不一樣類型的Source:Source必須至少和一個channel關聯
    • 和衆所周知的系統集成的Sources: Syslog, Netcat
    • 自動生成事件的Sources: Exec, SEQ
    • 用於Agent和Agent之間通訊的IPC Sources: Avro

核心概念:Channel

Channel位於Source和Sink之間,用於緩存進來的events,當Sink成功的將events發送到下一跳的channel或最終目的,events從Channel移除。

  • 不一樣的Channels提供的持久化水平也是不同的:Channels支持事務
    • Memory Channel: volatile
    • File Channel: 基於WAL(預寫式日誌Write-Ahead Logging)實現
    • JDBC Channel: 基於嵌入Database實現
  • 提供較弱的順序保證
  • 能夠和任何數量的Source和Sink工做

核心概念:Sink

Sink負責將events傳輸到下一跳或最終目的,成功完成後將events從channel移除。

  • 不一樣類型的Sinks:必須做用與一個確切的channel
    • 存儲events到最終目的的終端Sink. 好比: HDFS, HBase
    • 自動消耗的Sinks. 好比: Null Sink
    • 用於Agent間通訊的IPC sink: Avro

Flow可靠性

                      

               

  • 可靠性基於:
    • Agent間事務的交換
    • Flow中,Channel的持久特性
  • 可用性:
    • 內建的Load balancing支持
    • 內建的Failover支持

核心概念:Interceptor

用於Source的一組Interceptor,按照預設的順序在必要地方裝飾和過濾events。

  • 內建的Interceptors容許增長event的headers好比:時間戳、主機名、靜態標記等等
  • 定製的interceptors能夠經過內省event payload(讀取原始日誌),在必要的地方建立一個特定的headers。

核心概念:Channel Selector

Channel Selector容許Source基於預設的標準,從全部Channel中,選擇一個或多個Channel

  • 內建的Channel Selectors:
    • 複製Replicating: event被複制到相關的channel
    • 複用Multiplexing: 基於hearder,event被路由到特定的channel
核心概念:Sink Processor
多個Sink能夠構成一個Sink Group。一個Sink Processor負責從一個指定的Sink Group中激活一個Sink。Sink Processor能夠經過組中全部Sink實現負載均衡;也能夠在一個Sink失敗時轉移到另外一個。
  • Flume經過Sink Processor實現負載均衡(Load Balancing)和故障轉移(failover)
  • 內建的Sink Processors:全部的Sink都是採起輪詢(polling)的方式從Channel上獲取events。這個動做是經過Sink Runner激活的
    • Load Balancing Sink Processor – 使用RANDOM, ROUND_ROBIN或定製的選擇算法
    • Failover Sink Processor 
    • Default Sink Processor(單Sink)
  • Sink Processor充當Sink的一個代理


總結



Two agents communicating over Avro RPC


A fan-in flow using Avro RPC to consolidate events in one place


轉自:http://blog.csdn.net/szwangdf/article/details/33275351

相關文章
相關標籤/搜索