Hadoop安裝—Spark安裝

Spark安裝首先要先安裝上Hadoop,而後才能夠安裝Spark。html

Spark官網下載:http://spark.apache.org/downloads.htmlapache

須要注意的是:Spark對應的hadoop版本,而後上傳至虛擬機oop

 

安裝步驟:spa

一、加壓文件,tar -zxvf spark-2.3.0-bin-hadoop2.7.tgzhtm

  配置環境變量,blog

  

 

二、拷貝配置文件,目錄爲./spark/confighadoop

  cp spark-env.sh.template  spark-env.sh虛擬機

三、編輯文件,vi spark-env.sh,在最後增長以下內容:spark

  export SPARK_DIST_CLASSPATH=$(/home/wdd/hadoop-2.9.0/bin/hadoop classpath)class

  指定spark和hadoop進行關聯

四、須要注意的是,所屬組和全部者,以下圖:

  

五、簡單使用,計算pi的值

   ./spark-2.3.0-bin-hadoop2.7/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

    

相關文章
相關標籤/搜索