spark 和hadoop的 hdfs 整合(spark sql 找不到文件)

初學spark 的時候在 spark shell窗口類裏面操做如下代碼對hdfs 的文件進行操做的時候會出現找不到文件的錯誤shell val lineRDD= sc.textFile("/person.txt").map(_.split(" "))oop 【此處不配圖了】spa 緣由是spark 沒有配置hadoop 相關的參數。hadoop 在spark-env.sh 中添加HADOOP_CO
相關文章
相關標籤/搜索