由於以前安裝過hadoop,因此,在「Choose a package type」後面須要選擇「Pre-build with user-provided Hadoop [can use with most Hadoop distributions]」,而後,點擊「Download Spark」後面的「spark-2.1.0-bin-without-hadoop.tgz」下載便可。Pre-build with user-provided Hadoop: 屬於「Hadoop free」版,這樣,下載到的Spark,可應用到任意Hadoop 版本。 python
mv spark-2.1.0-bin-without-hadoop/ sparkweb
cp spark-env.sh.template spark-env.shshell
mv slaves.template slaves app
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)分佈式
#上述表示Spark能夠把數據存儲到Hadoop分佈式文件系統HDFS中,也能夠從HDFS中讀取數據。若是沒有配置上面信息,Spark就只能讀寫本地數據,沒法讀寫HDFS數據。ide
export JAVA_HOME=/usr/local/jdk64/jdk1.8.0oop
bin/run-example SparkPiui
bin/run-example SparkPi 2>&1 | grep "Pi is" #過濾顯示出pi的值url
web界面爲8080端口spa
spark-submit
--class <main-class> #須要運行的程序的主類,應用程序的入口點
--master <master-url> #Master URL,下面會有具體解釋
--deploy-mode <deploy-mode> #部署模式
... # other options #其餘參數
<application-jar> #應用程序JAR包
[application-arguments] #傳遞給主類的主方法的參數