spark Streaming從kafka消費數據遇到的問題,求解

問題: INFO JobScheduler: Added jobs for time 消費kafka數據的過程中,有時候會一直出現 INFO JobScheduler: Added jobs for time ,百度說的是設置的單線程,但是在程序裏面設置的是local[*],偶然跑了下,發現會有Added jobs for time和數據一起出現的情況,求解~~
相關文章
相關標籤/搜索