Spark Streaming和Kafka整合是如何保證數據零丟失

當咱們正確地部署好Spark Streaming,咱們就可使用Spark Streaming提供的零數據丟失機制。爲了體驗這個關鍵的特性,你須要知足如下幾個先決條件:api   一、輸入的數據來自可靠的數據源和可靠的接收器;   二、應用程序的metadata被application的driver持久化了(checkpointed );   三、啓用了WAL特性(Write ahead log)。
相關文章
相關標籤/搜索