[Hadoop] Kafka + Spark Streaming 數據零丟失

    Kafka:輸入 Spark Streaming:僞實時流處理 batch批次 1s :> = 0 0,1...100... DB:輸出 Redis/ES 雪崩效應  Job全部hung在那裏 解決一般是手工kill ==> 如何保證數據0丟失 流處理程序 bug => 掛了 => 下次再啓動,也要保證數據0丟失 生產上如何確認spark和kafka的版本:sparl.apache.orh
相關文章
相關標籤/搜索