Spark Streaming源碼解讀之Job詳解

一:Spark Streaming Job生成深度思考 1. 作大數據例如Hadoop,Spark等,若是不是流處理的話,通常會有定時任務。例如10分鐘觸發一次,1個小時觸發一次,這就是作流處理的感受,一切不是流處理,或者與流處理無關的數據都將是沒有價值的數據,之前作批處理的時候其實也是隱形的在作流處理。 2. JobGenerator構造的時候有一個核心的參數是jobScheduler, job
相關文章
相關標籤/搜索