1.官網下載未編譯的spark的jar包,選擇下載的時候選擇source codehtml
2.安裝jdk,maven。java
3.修改spark根目錄下的pom.xml文件(這一步不要作,作了反而會致使編譯不過,由於使用-Phadoop-2.3參數是已經傳遞進去了)。主要是修改版本。裏面有不少版本,只要修改你自己的對應的版本,好比:jdk 1.7,hadoop 2.3.0,hbase 0.98.1-hadoop2,hive 0.12.0等等。你自己沒用到的版本不用配置。shell
4.添加maven參數:export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"apache
你能夠添加到~/.bashrc中。這個maven參數在腳本make-distribution.sh中默認是有的。bash
5.編譯,使用以下命令,選擇對應的版本。maven
mvn -Pyarn -Phadoop-2.3 -Dhadoop.version=2.3.0 -Phive -Phive-thriftserver -DskipTests clean package
6.編譯打包,使用以下命令,選擇對應的版本。這一步會打包。oop
./make-distribution.sh --tgz --skip-java-test -Phadoop-2.3 -Dhadoop.version=2.3.0 -Pyarn -Phive -Phive-thriftserver
--tgz表明打包,--skip-java-test跳過測試階段,-Pyarn -Phive -Phive-thriftserver把hive,yarn打入進去。測試
7.若是顯示Build Success,那麼在spark的根目錄下存在spark-1.3.0-bin-~.tgz的安裝包。ui
參考:spa