本地local和kafka監聽本地文件,進行sparkstreaming實時輸出

所用軟件版本:   spark2.3.0   kafka 1.10   IDEA2019.1(spark-streaming-kafka-0-8-2.11-2.3.0) 先是用spark sql來監聽特定目錄下的某一個source文件的變化,進行實時分析,用IDEA進行本地lcoal模式進行實時處理,但問題是文件在本地,沒在HDFS上面,將程序運行在spark集羣上,出現找不到文件的錯誤,因此有如
相關文章
相關標籤/搜索