01:Spark安裝與測試

1:下載spark安裝包,需要查看是否兼容自己的hadoop版本 2:配置spark 進入到Spark安裝目錄 cd /usr/local/spark-1.6.1-bin-hadoop2.6 進入conf目錄並重命名並修改spark-env.sh.template文件 cd conf/ mv spark-env.sh.template spark-env.sh vi spark-env.sh 在該
相關文章
相關標籤/搜索