大數據日誌收集框架之Flume入門

Flume是Cloudrea公司開源的一款優秀的日誌收集框架,主要經歷了兩個大的版本,分別是 
Flume-OG 
Flume-NG 
OG是0.9.x的版本,依賴zookeeper,角色職責不夠單一, 
NG是新版本指1.x的版本,官網解釋它更輕量級,更小,角色職責更單一,利用點到點進行容錯,固然這也是之後的趨勢, 
要理解Flume,就首先理解它的架構,下面看下,官網的一張拓撲圖: 


 

名詞解釋: 
Source:泛指全部的日誌收集源,能夠是web頁面,log文件,數據庫,端口,卡口信息等 
Channel:提供中轉的臨時存儲區,能夠是本地文件,redis,kakfa,數據庫,內存等 
Sink:指日誌最終落地的存儲區,能夠是數據庫,HDFS,Hbase,Hive,本地文件等 
Agent:指上面三者組合後的一個完整的數據收集代理,有了這個代理,咱們把它安裝任何機器上進行收集日誌,固然前提是這個Agent符合這個機器上的業務。 



下面看下,安裝實戰例子: 

首先下載flume-ng的安裝包: 

wget http://archive.apache.org/dist/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz 

解壓 
tar -zxvf apache-flume-1.6.0-bin.tar.gz 

將根目錄下的conf下的一些模板文件,重命名成正常文件 


若是沒有配置JAVA_HOME爲環境變量的話, 
則須要在flume-env.sh裏面配置jdk的地址 


1,而後新建一個first.properties的文件,加入如下配置: 


Java代碼     收藏代碼
  1. [webmaster@Hadoop -0-187 conf]$ cat first.properties   
  2. # example.conf: A single-node Flume configuration  
  3.   
  4. # Name the components on this agent  
  5. #datasource  
  6. a1.sources = r1  
  7. #store   
  8. a1.sinks = k1  
  9. #transfer  
  10. a1.channels = c1  
  11.   
  12. # Describe/configure the source  
  13. a1.sources.r1.type = netcat  
  14. a1.sources.r1.bind = localhost  
  15. a1.sources.r1.port = 44444  
  16.   
  17. # Describe the sink  
  18. a1.sinks.k1.type = logger  
  19.   
  20. # Use a channel which buffers events in memory  
  21. a1.channels.c1.type = memory  
  22. a1.channels.c1.capacity = 1000  
  23. a1.channels.c1.transactionCapacity = 100  
  24.   
  25. # Bind the source and sink to the channel  
  26. a1.sources.r1.channels = c1  
  27. a1.sinks.k1.channel = c1  



配置例子2:收集本地日誌到hadoop裏面 


hdfs的sink目前支持三種文件類型: 
(1)SequenceFile   文本不可見 
(2)DataStream   設置hdfs.writeFormat=Text,文本可見 
(3)CompressedStream 設置hdfs.codeC=gzip, bzip2, lzo, lzop, snappy,其中一種,後面三個須要編譯hadoop時支持才能設置。 

默認是SequenceFile,以文本方式寫進入的數據,是不可見的,除非改變類型爲DataStream , 
而後設置hdfs.writeFormat=Text便可,這個選項默認是Writable 

Java代碼     收藏代碼
  1. a.sources=exec-source  
  2. a.sinks=hdfs-sink  
  3. a.channels=ch1  
  4.   
  5. #####source conf  
  6.   
  7. a.sources.exec-source.type=exec  
  8. a.sources.exec-source.command=tail -F /ROOT/server/flume/v.log  
  9.   
  10.   
  11. #####sink conf  
  12. a.sinks.hdfs-sink.type=hdfs  
  13. a.sinks.hdfs-sink.hdfs.path=hdfs://h1:9000/flume/events  
  14. a.sinks.hdfs-sink.hdfs.filePrefix=search  
  15. a.sinks.hdfs-sink.hdfs.rollInterval=10  
  16. a.sinks.hdfs-sink.hdfs.rollSize=0  
  17.   
  18. #不設置壓縮,指定文本方式加入hdfs  
  19. #a.sinks.hdfs-sink.hdfs.fileType=DataStream  
  20. #a.sinks.hdfs-sink.hdfs.writeFormat=Text  
  21.   
  22. #設置壓縮lzo或者snappy  
  23. a.sinks.hdfs-sink.hdfs.fileType=CompressedStream  
  24. #a.sinks.hdfs-sink.hdfs.codeC=snappy  
  25. #a.sinks.hdfs-sink.hdfs.codeC=lzo  
  26. #a.sinks.hdfs-sink.hdfs.codeC=lzop  
  27. #a.sinks.hdfs-sink.hdfs.codeC=gzip  
  28. a.sinks.hdfs-sink.hdfs.codeC=bzip2  
  29.   
  30.   
  31. ####channels conf  
  32. a.channels.ch1.type=memory  
  33. a.channels.ch1.capacity=1000  
  34.   
  35. a.sources.exec-source.channels=ch1  
  36. a.sinks.hdfs-sink.channel=ch1  


啓動命令: 最後的a與配置文件裏面的agent的name必須一致 
bin/flume-ng agent --conf conf --conf-file  conf/to_hdfs.properties  --name a 

下面是一個按年月日時分,收集的日誌: 

Java代碼     收藏代碼
  1. a.sources=exec-source  
  2. a.sinks=hdfs-sink  
  3. a.channels=ch1  
  4.   
  5. #####source conf  
  6.   
  7. a.sources.exec-source.type=exec  
  8. a.sources.exec-source.command=tail -F /ROOT/server/flume/v.log  
  9.   
  10.   
  11. #####sink conf  
  12. a.sinks.hdfs-sink.type=hdfs  
  13. a.sinks.hdfs-sink.hdfs.path=hdfs://h1:9000/flume/events/%Y/%m/%d/%H/%M  
  14. a.sinks.hdfs-sink.hdfs.filePrefix=search  
  15. a.sinks.hdfs-sink.hdfs.rollInterval=10  
  16. a.sinks.hdfs-sink.hdfs.rollSize=0  
  17. a.sinks.hdfs-sink.hdfs.useLocalTimeStamp=true  
  18.   
  19. #不設置壓縮  
  20. #a.sinks.hdfs-sink.hdfs.fileType=DataStream  
  21. #a.sinks.hdfs-sink.hdfs.writeFormat=Text  
  22.   
  23. #設置壓縮lzo或者snappy  
  24. a.sinks.hdfs-sink.hdfs.fileType=CompressedStream  
  25. #a.sinks.hdfs-sink.hdfs.codeC=snappy  
  26. #a.sinks.hdfs-sink.hdfs.codeC=lzo  
  27. #a.sinks.hdfs-sink.hdfs.codeC=lzop  
  28. #a.sinks.hdfs-sink.hdfs.codeC=gzip  
  29. a.sinks.hdfs-sink.hdfs.codeC=bzip2  
  30.   
  31.   
  32. ####channels conf  
  33. a.channels.ch1.type=memory  
  34. a.channels.ch1.capacity=1000  
  35.   
  36. a.sources.exec-source.channels=ch1  
  37. a.sinks.hdfs-sink.channel=ch1  



最後看下,配置flume監聽linux的rsyslog的日誌: 

可用nc模擬telent發送數據到5140端口 
echo "<1>hello via syslog" | nc -t localhost 5140 
配置/etc/rsyslog.conf 
在最後一行,加入tcp轉發端口: 

Java代碼     收藏代碼
  1. *.* @@localhost :5140  


若是不生效,可考慮:取消註釋,使下面的生效: 

Java代碼     收藏代碼
  1. # Provides TCP syslog reception  
  2. #$ModLoad imtcp  
  3. #$InputTCPServerRun 5140  


改完以後,重啓rsyslog 

Java代碼     收藏代碼
  1. sudo service rsyslog restart  


而後配置flume 
flume監聽rsyslog,或者syslog 

Java代碼     收藏代碼
  1. a.sources=exec-source  
  2. a.sinks=hdfs-sink  
  3. a.channels=ch1  
  4.   
  5. #####source conf rsyslog   
  6.   
  7. a.sources.exec-source.type=syslogtcp  
  8. a.sources.exec-source.port=5140  
  9. a.sources.exec-source.host=0.0.0.0  
  10.   
  11.   
  12. #####sink conf  
  13. a.sinks.hdfs-sink.type=hdfs  
  14. a.sinks.hdfs-sink.hdfs.path=hdfs://h1:9000/flume/events/%Y/%m/%d/%H/%M  
  15. a.sinks.hdfs-sink.hdfs.filePrefix=search  
  16. a.sinks.hdfs-sink.hdfs.rollInterval=10  
  17. a.sinks.hdfs-sink.hdfs.rollSize=0  
  18. a.sinks.hdfs-sink.hdfs.useLocalTimeStamp=true  
  19.   
  20. #不設置壓縮  
  21. #a.sinks.hdfs-sink.hdfs.fileType=DataStream  
  22. #a.sinks.hdfs-sink.hdfs.writeFormat=Text  
  23.   
  24. #設置壓縮lzo或者snappy  
  25. a.sinks.hdfs-sink.hdfs.fileType=CompressedStream  
  26. #a.sinks.hdfs-sink.hdfs.codeC=snappy  
  27. #a.sinks.hdfs-sink.hdfs.codeC=lzo  
  28. #a.sinks.hdfs-sink.hdfs.codeC=lzop  
  29. #a.sinks.hdfs-sink.hdfs.codeC=gzip  
  30. a.sinks.hdfs-sink.hdfs.codeC=bzip2  
  31.   
  32.   
  33. ####channels conf  
  34. a.channels.ch1.type=memory  
  35. a.channels.ch1.capacity=1000  
  36.   
  37. a.sources.exec-source.channels=ch1  
  38. a.sinks.hdfs-sink.channel=ch1  


配置完成啓動: 
而後看flume的log再次登錄終端,推出終端,sudo命令執行失敗,flume都會採集轉發到hdfs上存儲起來 

總結: Flume不愧是大數據平臺的一個標準組件,與Hadoop能很是完美的結合,固然,除了與hadoop結合外,還支持Hbase,Hive等, 相比Logstash+ElasticSearch+Kibana的ELK裏面的Logstash,flume比較適合結構化的日誌收集,存儲,而Logstasch則還能夠很是方便的解析,清洗數據,雖然flume經過擴展jar也能支持,但logstash使用的是Jruby語法,相比java,則比較簡單。這也是ELK都可以快速部署的緣由,固然flume也支持向elasticsearch推送索引數據,經過擴展的jar,幾乎大部分功能都能輕鬆實現,因此,沒有誰最好用,誰最很差用,只有誰最適合業務,纔是最好的!
相關文章
相關標籤/搜索