Spark Streaming消費Kafka數據的兩種方案

下午的時候翻微信看到你們在討論Spark消費Kafka的方式,官網中就有答案,只不過是英文的,固然不少博客也都作了介紹,正好個人收藏夾中有一篇文章供你們參考。文章寫的通俗易懂,搭配代碼,供你們參考。算法 本文的做者是來自TalkingData的數據工程師張偉。數據庫 SS 是 Spark 上的一個流式處理框架,能夠面向海量數據實現高吞吐量、高容錯的實時計算。SS 支持多種類型數據源,包括 Kafk
相關文章
相關標籤/搜索