在個人CDH5.13集羣中,默認安裝的spark是1.6版本,這裏須要將其升級爲spark2.x版本。經查閱官方文檔,發現spark1.6和2.x是能夠並行安裝的,也就是說能夠不用刪除默認的1.6版本,能夠直接安裝2.x版本,它們各自用的端口也是不同的。這裏作一下安裝spark2.3版本的步驟記錄。html
注意,下載對應版本的包,個人CentOS7,因此下載el7的包,如果CentOS6,就要下el6的包。apache
特別注意,若是你安裝spark2.3,按照上面下載就是了,注意一下操做系統的版本;若是你不打算安裝spark2.3,想安裝其餘版本,好比2.0,那麼必定要注意下面的事項:
若是你仔細瀏覽過這些路徑,會發現下圖中,csd和parcel包會有.clouderal1和.clouderal2之分,和2.0與2.1版本之分,那麼在下載parcel時也要注意,下載對應的包。即若是下載到的是.clouderal1的csd包,下載parcel包也要下載文件名中是.clouderal1的包,不能下載.clouderal2的包,同時csd2.0的包也不能用於parcel2.1的包,否則極可能安不上json
1.安裝前能夠停掉集羣和Cloudera Management Service服務器
中止CDH服務oop
中止CM服務ui
2.下面的操做在每一個CDH節點都要進行。spa
3.上傳CSD包到機器的/opt/cloudera/csd目錄,而且修改文件的用戶和組。注意若是本目錄下有其餘的jar包,把刪掉或者移到其餘目錄操作系統
[root@hadoop1 csd]# chown cloudera-scm:cloudera-scm SPARK2_ON_YARN-2.3.0.cloudera2.jar [root@hadoop1 csd]# ll -rw-r--r-- 1 cloudera-scm cloudera-scm 19010 May 23 00:30 SPARK2_ON_YARN-2.3.0.cloudera2.jar
4.上傳parcel包到機器的/opt/cloudera/parcel-repo目錄下。3d
注意。若是有其餘的安裝包,不用刪除 。可是若是本目錄下有其餘的重名文件好比manifest.json文件,把它重命名備份掉。而後把那3個parcel包的文件放在這裏。rest
SPARK2-2.3.0.cloudera2-1.cdh5.13.3.p0.316101-el7.parcel SPARK2-2.3.0.cloudera2-1.cdh5.13.3.p0.316101-el7.parcel.sha manifest.json
5.若是剛剛沒有停掉CM和集羣,如今將他們停掉。而後運行命令。
[root@hadoop1 opt]# /opt/cm-5.13.3/etc/init.d/cloudera-scm-server restart Stopping cloudera-scm-server: [ OK ] Starting cloudera-scm-server: [ OK ] [root@hadoop1 opt]# /opt/cm-5.13.3/etc/init.d/cloudera-scm-agent restart Stopping cloudera-scm-agent: [ OK ] Starting cloudera-scm-agent: [ OK ]
6.把CM和集羣啓動起來。而後點擊主機->Parcel頁面,看是否多了個spark2的選項。以下圖,你這裏此時應該是分配按鈕,點擊,等待操做完成後,點擊激活按鈕
7.激活後,點擊你的羣集-》添加服務,添加spark2服務。注意,若是你這裏看不到spark2服務,就請檢查你的CSD包和parcel包是否對應,上面的步驟是否有漏掉。正常狀況下,應該是能用了。
官方下載安裝說明見:https://www.cloudera.com/downloads/spark2/2-3-r4.html
最低要求角色: 羣集管理員 (也由徹底管理員提供)
由Apache Spark提供支持的CDS分爲兩個文件: 自定義服務描述符 文件和一個包,這兩個文件都必須安裝在羣集上。
注意: 因爲Apache Spark支持的CDS 和初始 主義CSD之間可能存在混淆 ,所以本文檔中對自定義服務描述符(CSD)文件的引用使用術語 服務描述符。
注意:雖然Spark 1和Spark 2能夠在同一個CDH羣集中共存,但您不能在同一個Cloudera Manager實例中同時使用多個Spark 2版本。由同一Cloudera Manager Server管理的全部CDH羣集必須使用與Apache Spark徹底相同的CDS版本。例如,您不能使用內置的CDH Spark服務,CDS 2.1服務和CDS 2.2服務。您必須只選擇一個由Apache Spark版本提供支持的CDS 2。確保同時 在全部羣集的全部計算機上安裝或升級CDS 2 服務描述符和parcel。
CDS 2.2及更高版本僅須要JDK 8。若是您使用的是CD 2.2或更高版本,則必須從全部羣集和網關主機中刪除JDK 7以確保正常運行。
按照如下步驟安裝Apache Spark支持的CDS:
注意:雖然Spark 1和Spark 2能夠在同一個CDH羣集中共存,但您不能在同一個Cloudera Manager實例中同時使用多個Spark 2版本。由同一Cloudera Manager Server管理的全部CDH羣集必須使用與Apache Spark徹底相同的CDS版本。例如,您不能使用內置的CDH Spark服務,CDS 2.1服務和CDS 2.2服務。您必須只選擇一個由Apache Spark版本提供支持的CDS 2。確保同時 在全部羣集的全部計算機上安裝或升級CDS 2 服務描述符和parcel。
CDS 2.2及更高版本僅須要JDK 8。若是您使用的是CD 2.2或更高版本,則必須從全部羣集和網關主機中刪除JDK 7以確保正常運行。
若是您已經在使用CDS 2.0,2.1或2.2,則如下是升級到由Apache Spark提供支持的CDS 2.3的步驟,同時保留已應用的Spark 2的任何非默認配置:
從/ opt / cloudera / csd中刪除舊版本的CDS Powered by Apache Spark的服務描述符JAR。有關 每一個版本對應的JAR文件的名稱,請參閱 Apache Spark版本,打包和下載信息支持的CDS。
將CDS 2.3的服務描述符JAR添加到/ opt / cloudera / csd。設置正確的權限和全部權。
從新啓動cloudera-scm-server服務。
在Cloudera Manager中,取消激活與舊版CDS對應的宗地。
在Cloudera Manager中,激活與CDS 2.3對應的包裹。
重啓服務並部署客戶端配置。
請訪問 Cloudera的Apache Spark頁面 ,瞭解有關在Cloudera Enterprise上運行企業級Apache Spark的更多信息。