Kafka導入hdfs數據持久化

咱們用Flume採集日誌信息後,數據進入Kafka。在Kafka以後的選擇咱們有不少,最典型的就是Flume-ng------Kafka------Storm。固然也能夠是Mongo、Elasticsearch、Hbase等等。不過無論去哪,Kafka的數據默認只存7天(能夠配置),7天以後就會自動刪除了,因此說數據持久化的問題就來了,數據持久化最好的選擇就是進入Hadoop。因此本文介紹如何將K
相關文章
相關標籤/搜索