kafka系列-kafka多分區的狀況下保證數據的有序性

場景 mysql的數據-->經過canal-->發送到kafka-->mysql、hivejava 在作canal集成kafka的時候,發現一個問題,多分區的狀況下,跨分區的數據消費是無序的。mysql 這時候就會出現問題,若是消費端消費的更新日誌在插入日誌以前,就會由於數據缺失致使異常(這樣的狀況隨着併發出現的機率會增大),因此,須要保證新增的日誌和更新的日誌是有序的被消費。sql kafka發
相關文章
相關標籤/搜索