1.安裝好jdk,版本最好1.6+,本人安裝的是1.7,而且配置好環境變量JAVA_HOME。html
2.安裝好scala,scala版本最好選擇2.10.4,配置好環境變量SCALA_HOME。本人沒有安裝scala,可是spark同樣能運行,應該是spark自己自帶scala。強烈建議本身安裝scala。shell
3.安裝好hadoop,配置好環境變量HADOOP_HOME,主要是spark須要用到hadoop的配置。apache
4.複製修改slaves文件,配置哪些節點是worker節點。oop
5.複製修改spark-env.sh和spark-defaults.conf。參考:spark配置測試
6.啓動集羣,參考:spark命令spa
7測試集羣是否安裝成功,參考:測試spark集羣是否安裝成功:網頁監控頁面和運行spark shell。.net
官網的standalone 模式安裝配置閱讀很簡單,直接參考官網的。scala