【Strom篇】Flume+Kafaka+Strom整合完成信息記錄

第一部分:流程分析 由flume收集客戶端發送的信息,經過kafka集羣消費者收集,然後給storm集羣數據處理(數據清洗),最後再發給kafka集羣收集。 第二部分:集羣搭建 flume+kafka 一、配合flume 修改flume-env.sh裏的JAVA_HOME的位置,(flume僅修改此處) (若查看flume的版本通過:./bin flume-ng version) 二、創建fk.c
相關文章
相關標籤/搜索