standalone模式安裝

1.安裝好jdk,版本最好1.6+,本人安裝的是1.7,而且配置好環境變量JAVA_HOME。html

2.安裝好scala,scala版本最好選擇2.10.4,配置好環境變量SCALA_HOME。本人沒有安裝scala,可是spark同樣能運行,應該是spark自己自帶scala。強烈建議本身安裝scala。shell

3.安裝好hadoop,配置好環境變量HADOOP_HOME,主要是spark須要用到hadoop的配置。apache

4.複製修改slaves文件,配置哪些節點是worker節點。oop

5.複製修改spark-env.sh和spark-defaults.conf。參考:spark配置測試

6.啓動集羣,參考:spark命令spa

7測試集羣是否安裝成功,參考:測試spark集羣是否安裝成功:網頁監控頁面和運行spark shell.net

官網的standalone 模式安裝配置閱讀很簡單,直接參考官網的。scala

Spark Standalone Modehtm

相關文章
相關標籤/搜索