hadoop零基礎入門教程--DKHadoop的安裝配置教程

使用hadoop版本是DKH標準三節點發行版,DKHadoop版本的易用性比較好,環境部署要簡單的多,參考此篇安裝前請先下載DKHadoop版本,網盤連接:https://pan.baidu.com/s/1-427Sh6lTLrLAPh6KMOYVg  提取碼:vg2w  node

第一部分:準備工做mysql

  1. 大數據平臺所需配置:

(1) 系統:CentOS 6.5 64位(需默認安裝Desktop)sql

(2) CPU :intel E3及以上。數據庫

(3) 內存:建議最小8G,用圖計算建議32G,推薦128G。瀏覽器

(4) 硬盤:256G以上,推薦使用固態硬盤。tomcat

(5) 系統分區要求: 如無特殊需求,除swap分區外,可將剩餘空間所有分配到/(根)分區服務器

(6) 網絡要求:如無特殊狀況,儘可能能夠接入外網。網絡

(7) 至少三臺服務器(三臺服務器名字任意起,密碼須一致)。併發

  (8)安裝使用root用戶做爲默認用戶ssh

  1. 遠程上傳和遠程鏈接工具:
  1. 若直接使用我的PC開啓的虛擬機做爲服務器的基礎,直接拷貝到虛擬機下便可。
  2. 如果使用機房服務器做平臺搭建的服務器,如若不能直接接觸到服務器,則須要使用遠程工具鏈接併發送安裝包

 

第二部分:服務器操做系統配置

 

1.修改權限

步驟:在準備工做中拷貝安裝包DKHPlantform.zip到主節點/root/目錄後,解壓並修改文件權限(文件全部者可讀可寫可執行,與文件全部者屬於一個用戶組的其餘用戶可讀可執行,其餘用戶組可讀可執行)。

命令:  

cd /root/

unzip DKHPlantform.zip

chmod -R 755 DKHPlantform

2. 搭建hadoop集羣設置SSH免密登陸

步驟:

修改主機名  vi /etc/sysconfig/network  reboot

(1)修改本機hosts文件,寫入對應關係

命令:

vi /etc/hosts

經過按鍵盤上的insert或是I鍵進入編輯模式,編輯完成後按一下Esc鍵而後按一下按Shift+:鍵,輸入wq 後回車就能夠保存。輸入q!後回車則是放棄保存並退出.

進入編輯模式後,按照規則寫入主機與ip的對應關係(主機名稱dk41是本身命名的,以下圖)例:

 192.168.1.41    dk41

192.168.1.42    dk42

192.168.1.43    dk43

hadoop零基礎入門教程-

編輯完後,保存退出。把對應關係拷到其餘兩臺機器上。

命令:

scp  -r  /etc/hosts  192.168.1.42:/etc

scp  -r  /etc/hosts  192.168.1.43:/etc

(2)執行集羣之間免密前的準備工做   

a)執行sshpass.sh的腳本的時候會去讀sshhosts和sshslaves這兩個文件,替換sshpass.sh中的master和slave文件。                                         修改文件sshhosts,輸入所有機器的主機名,每行一個主機名(以下圖)

命令:

vi /root/DKHPlantform/autossh/sshhosts

經過按鍵盤上的insert或是I鍵進入編輯模式,編輯完成後按一下Esc鍵而後按一下按Shift+:鍵,輸入wq,後回車就能夠保存。輸入q!後回車則是放棄保存並退出.

hadoop零基礎入門教程

修改文件sshslaves,寫入除主機名以外的全部機器名(以下圖)

命令:

vi /root/DKHPlantform/autossh/sshslaves

經過按鍵盤上的insert或是I鍵進入編輯模式,編輯完成後按一下Esc鍵而後按一下按Shift+:鍵,輸入wq,後回車就能夠保存。輸入q!後回車則是放棄保存並退出.

hadoop零基礎入門教程

b)執行insExpect.sh,系統會裝兩個rpm包,在執行sshpass.sh的過程當中無需再輸密碼和yes,腳本自動繼續執行。

命令:

cd /root/DKHPlantform/autossh

./insExpect.sh

按照提示屢次輸入yes和密碼(以下圖)

hadoop零基礎入門教程

c)執行changeMaster.sh腳本爲了清空/root/.ssh目錄下的全部文件(在/root/DKHPlantform/autossh目錄下),避免在執行sshpass.sh腳本時產生的新密鑰時與舊的密鑰發生衝突。

命令

./changeMaster.sh                                                   

按照提示輸入(以下圖)

hadoop零基礎入門教程

(3)執行集羣免(SSH

a)執行SSH:

命令:

cd /root/

./sshpass.sh 密碼

123456爲集羣密碼,根據本身實際狀況輸入。

hadoop零基礎入門教程

b)防止訪問服務器時某些服務被攔截,需關閉防火牆。

命令

cd /root/DKHPlantform/autossh

./offIptables.sh

hadoop零基礎入門教程

3.安裝雙機熱備份MySQL

目的:存放Hive的元數據

步驟:

(1)從主節點分發mysql安裝目錄第二節點

命令:

scp -r /root/DKHPlantform/mysqlInst/ 192.168.1.42:/root/

(2)主節點執行: 

命令: 

cd /root/DKHPlantform/mysqlInst/

./mysql.sh 1

ssh前往第二臺機器(從節點)並執行:

命令:

cd /root/mysqlInst/

./mysql.sh 2

(3)執行成功以後執行熱備份(兩臺機器上都要執行,兩個ip互換,41上寫42,42上寫41,密碼是Mysql的密碼爲:123456。平臺內已經設定好,請勿修改

命令:

source /etc/profile

./sync.sh 192.168.1.xxx(另外一臺mysql地址) root 123456

 

4.建立數據庫

 步驟:

(1)導入MySQL數據表,只在主節點執行:

命令

mysql -uroot -p123456 < { 此處爲sql文件,主目錄下文件: dkh.sql}

如:mysql -uroot -p123456 </root/DKHPlantform/dkh.sql

(2)執行完後查看一下兩臺mysql的數據表是否存在,從節點查看執行:

命令:

mysql  -uroot  -p123456
show databases;

hadoop零基礎入門教程

第三部分:DKH系統安裝

(1)啓動安裝

步驟:執行如下命令。

命令:

cd /root/DKHPlantform/dkh-tomcat-7.0.56/bin/

./startup.sh

(2)登陸

啓動成功後瀏覽器鍵入主節點ip

登錄默認用戶名和密碼: 

Username:admin

Password: 123456

後續根據提示安裝

(3)組件安裝路徑

建議採用默認安裝路徑,即/opt/dkh/,注意千萬不要放/root/,否則impala等組件的安裝可能出現問題

部分:常見問題解決方法

 

一、當hdfs的zkfc出現以下問題時,可嘗試如下方法:

hadoop零基礎入門教程

  1. 先格式化hadoopzk:hdfs zkfc -formatZK
  2. 啓動zk,sbin下:  ./hadoop-daemon.sh start zkfc
  3. 設定失敗轉移的namenode: hdfs haadmin -failover nn1 nn2

二、當hue頁面打不開,顯示以下內容時,說明沒有建立hue數據庫,可在主節點執行此文件,根據提示輸入Y便可

hadoop零基礎入門教程

hadoop零基礎入門教程

三、當hue頁面打不開,顯示以下內容時,可執行以下命令解決:

# cd /opt/dkh/hue-3.12.0/build/env/bin

# ./hue syncdb        以後輸入no

    # ./hue migrate

四、Essql頁面打不開,顯示以下內容時,可經過如下方式解決

  1. 主節點運行命令:source /etc/profile,後重啓Tomcat(注意使用shutdown命令以後,若還存在相關進程,需手動kill掉)適用於環境變量不生效的狀況,好比,Java的版本識別的是1.7,而不是1.8;hdfs相關命令不識別等。
  2. 重啓Tomcat,注意使用shutdown命令以後,若還存在相關進程,需手動kill掉適用於啓動了多個Tomcat進程的狀況。

hadoop零基礎入門教程

相關文章
相關標籤/搜索