Spark集羣搭建

1、環境準備html (1)集羣:hadoop01,hadoop02,hadoop03 (2)jdk1.八、spark1.6 2、集羣搭建java (1)解壓安裝包到linux下的:/usr/local tar -zxvf /home/spark-1.6.1-bin-hadoop2.6.tgz -C /usr/local (2)進入解壓目錄的conf目錄,修改spark-env.sh #指定jd
相關文章
相關標籤/搜索