Spark Streaming + Kafka + Redis狀態管理 top100場景 Exactly Once

  最近面試螞蟻金服一面的時候,和麪試官聊項目問題的時候,發現我這邊業務實現的top100場景好像沒有實現exactly once語義,我們項目的offset是存儲在zk中,然後業務處理完畢後,最後再提交offset更新到zk,這種時候就會出現一個問題就是如果業務處理完畢,數據已經更新到redis中進行了累加,然後offset更新zk沒成功宕機了,再次重啓的時候就會讀取老的offset導致數據重複
相關文章
相關標籤/搜索