Spark 僞分佈式&全分佈式環境搭建

安裝Linux、JDK等等 解壓:tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz -C ~/training/ 由於Spark的腳本命令和Hadoop有衝突,只設置一個即可(不能同時設置) 配置文件:/root/training/spark-2.1.0-bin-hadoop2.7/conf/spark-env.sh                  /root/tr
相關文章
相關標籤/搜索