sparkstreaming消費kafka如何保證輸出結果只會產生一次

問題:spa sparkstreaming消費kafka如何保證輸出結果只會產生一次 解決方案:kafka 1.本身實現commitsync方法 ,這個方法運行時毫秒級it 2.每次消費完以後將offset保存到hdfs或本地,啓動的時候讀這個文件而且加入新增的partition offset便可spark 可是!上面的方案仍是會出現問題。。。io 由於入庫操做和commitc方法不是一個原子操做
相關文章
相關標籤/搜索