Spark Streaming-Dstream建立

       Spark Streaming原生支持一些不一樣的數據源。一些「核心」數據源已經被打包到Spark Streaming 的 Maven 工件中,而其餘的一些則能夠經過 spark-streaming-kafka 等附加工件獲取。每一個接收器都以 Spark 執行器程序中一個長期運行的任務的形式運行,所以會佔據分配給應用的 CPU 核心。此外,咱們還須要有可用的 CPU 核心來處理數據
相關文章
相關標籤/搜索