Idea本地運行spark,操作HDFS(spark-without-hadoop版的spark)

操作 一般大家都是用的spark-x.x.x-bin-hadoop2.x的spark 而我用的是spark-2.1.0-bin-without-hadoop,所以我們要使用HDFS的時候,就必須讓程序能夠找到Hadoop的HDFS 所以我們不僅要像一般的Idea運行集羣操作一樣給工程添加 $SPARK_HOME/jars到工程的Libraries,參考Window環境下使用IntelliJ IDE
相關文章
相關標籤/搜索