Hadoop是Apache軟件基金會旗下的一個開源分佈式計算平臺。以Hadoop分佈式文件系統(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的開源實現)爲核心的Hadoop爲用戶提供了系統底層細節透明的分佈式基礎架構。 html
對於Hadoop的集羣來說,能夠分紅兩大類角色:Master和Salve。一個HDFS集羣是由一個NameNode和若干個DataNode組成的。其中NameNode做爲主服務器,管理文件系統的命名空間和客戶端對文件系統的訪問操做;集羣中的DataNode管理存儲的數據。MapReduce框架是由一個單獨運行在主節點上的JobTracker和運行在每一個集羣從節點的TaskTracker共同組成的。主節點負責調度構成一個做業的全部任務,這些任務分佈在不一樣的從節點上。主節點監控它們的執行狀況,而且從新執行以前的失敗任務;從節點僅負責由主節點指派的任務。當一個Job被提交時,JobTracker接收到提交做業和配置信息以後,就會將配置信息等分發給從節點,同時調度任務並監控TaskTracker的執行。 java
從上面的介紹能夠看出,HDFS和MapReduce共同組成了Hadoop分佈式系統體系結構的核心。HDFS在集羣上實現分佈式文件系統,MapReduce在集羣上實現了分佈式計算和任務處理。HDFS在MapReduce任務處理過程當中提供了文件操做和存儲等支持,MapReduce在HDFS的基礎上實現了任務的分發、跟蹤、執行等工做,並收集結果,兩者相互做用,完成了Hadoop分佈式集羣的主要任務。 node
集羣中包括4個節點:1個Master,3個Salve,節點之間局域網鏈接,能夠相互ping通,具體集羣信息能夠查看"Hadoop集羣(第2期)"。節點IP地址分佈以下: linux
機器名稱 apache |
IP地址 vim |
Master.Hadoop 安全 |
192.168.1.2 服務器 |
Salve1.Hadoop 網絡 |
192.168.1.3 session |
Salve2.Hadoop |
192.168.1.4 |
Salve3.Hadoop |
192.168.1.5 |
四個節點上均是CentOS6.0系統,而且有一個相同的用戶hadoop。Master機器主要配置NameNode和JobTracker的角色,負責總管分佈式數據和分解任務的執行;3個Salve機器配置DataNode和TaskTracker的角色,負責分佈式數據存儲以及任務的執行。其實應該還應該有1個Master機器,用來做爲備用,以防止Master服務器宕機,還有一個備用立刻啓用。後續經驗積累必定階段後補上一臺備用Master機器。
Hadoop集羣要按照1.2小節表格所示進行配置,咱們在"Hadoop集羣(第1期)"的CentOS6.0安裝過程就按照提早規劃好的主機名進行安裝和配置。若是實驗室後來人在安裝系統時,沒有配置好,沒關係,沒有必要從新安裝,在安裝完系統以後仍然能夠根據後來的規劃對機器的主機名進行修改。
下面的例子咱們將以Master機器爲例,即主機名爲"Master.Hadoop",IP爲"192.168.1.2"進行一些主機名配置的相關操做。其餘的Slave機器以此爲依據進行修改。
1)查看當前機器名稱
用下面命令進行顯示機器名稱,若是跟規劃的不一致,要按照下面進行修改。
hostname
上圖中,用"hostname"查"Master"機器的名字爲"Master.Hadoop",與咱們預先規劃的一致。
2)修改當前機器名稱
假定咱們發現咱們的機器的主機名不是咱們想要的,經過對"/etc/sysconfig/network"文件修改其中"HOSTNAME"後面的值,改爲咱們規劃的名稱。
這個"/etc/sysconfig/network"文件是定義hostname和是否利用網絡的不接觸網絡設備的對系統全體定義的文件。
設定形式:設定值=值
"/etc/sysconfig/network"的設定項目以下:
NETWORKING 是否利用網絡
GATEWAY 默認網關
IPGATEWAYDEV 默認網關的接口名
HOSTNAME 主機名
DOMAIN 域名
用下面命令進行修改當前機器的主機名(備註:修改系統文件通常用root用戶)
vim /etc/sysconfig/network
經過上面的命令咱們從"/etc/sysconfig/network"中找到"HOSTNAME"進行修改,查看內容以下:
3)修改當前機器IP
假定咱們的機器連IP在當時安裝機器時都沒有配置好,那此時咱們須要對"ifcfg-eth0"文件進行配置,該文件位於"/etc/sysconfig/network-scripts"文件夾下。
在這個目錄下面,存放的是網絡接口(網卡)的制御腳本文件(控制文件),ifcfg- eth0是默認的第一個網絡接口,若是機器中有多個網絡接口,那麼名字就將依此類推ifcfg-eth1,ifcfg-eth2,ifcfg- eth3,……。
這裏面的文件是至關重要的,涉及到網絡可否正常工做。
設定形式:設定值=值
設定項目項目以下:
DEVICE 接口名(設備,網卡)
BOOTPROTO IP的配置方法(static:固定IP, dhcpHCP, none:手動)
HWADDR MAC地址
ONBOOT 系統啓動的時候網絡接口是否有效(yes/no)
TYPE 網絡類型(一般是Ethemet)
NETMASK 網絡掩碼
IPADDR IP地址
IPV6INIT IPV6是否有效(yes/no)
GATEWAY 默認網關IP地址
查看"/etc/sysconfig/network-scripts/ifcfg-eth0"內容,若是IP不復核,就行修改。
若是上圖中IP與規劃不相符,用下面命令進行修改:
vim /etc/sysconfig/network-scripts/ifcgf-eth0
修改完以後能夠用"ifconfig"進行查看。
4)配置hosts文件(必須)
"/etc/hosts"這個文件是用來配置主機將用的DNS服務器信息,是記載LAN內接續的各主機的對應[HostName和IP]用的。當用戶在進行網絡鏈接時,首先查找該文件,尋找對應主機名(或域名)對應的IP地址。
咱們要測試兩臺機器之間知否連通,通常用"ping 機器的IP",若是想用"ping 機器的主機名"發現找不見該名稱的機器,解決的辦法就是修改"/etc/hosts"這個文件,經過把LAN內的各主機的IP地址和HostName的一一對應寫入這個文件的時候,就能夠解決問題。
例如:機器爲"Master.Hadoop:192.168.1.2"對機器爲"Salve1.Hadoop:192.168.1.3"用命令"ping"記性鏈接測試。測試結果以下:
從上圖中的值,直接對IP地址進行測試,可以ping通,可是對主機名進行測試,發現沒有ping通,提示"unknown host——未知主機",這時查看"Master.Hadoop"的"/etc/hosts"文件內容。
發現裏面沒有"192.168.1.3 Slave1.Hadoop"內容,故而本機器是沒法對機器的主機名爲"Slave1.Hadoop" 解析。
在進行Hadoop集羣配置中,須要在"/etc/hosts"文件中添加集羣中全部機器的IP與主機名,這樣Master與全部的Slave機器之間不只能夠經過IP進行通訊,並且還能夠經過主機名進行通訊。因此在全部的機器上的"/etc/hosts"文件末尾中都要添加以下內容:
192.168.1.2 Master.Hadoop
192.168.1.3 Slave1.Hadoop
192.168.1.4 Slave2.Hadoop
192.168.1.5 Slave3.Hadoop
用如下命令進行添加:
vim /etc/hosts
添加結果以下:
如今咱們在進行對機器爲"Slave1.Hadoop"的主機名進行ping通測試,看是否能測試成功。
從上圖中咱們已經能用主機名進行ping通了,說明咱們剛纔添加的內容,在局域網內能進行DNS解析了,那麼如今剩下的事兒就是在其他的Slave機器上進行相同的配置。而後進行測試。(備註:當設置SSH無密碼驗證後,能夠"scp"進行復制,而後把原來的"hosts"文件執行覆蓋便可。)
1)JDK軟件
下載地址:http://www.oracle.com/technetwork/java/javase/index.html
JDK版本:jdk-6u31-linux-i586.bin
2)Hadoop軟件
下載地址:http://hadoop.apache.org/common/releases.html
Hadoop版本:hadoop-1.0.0.tar.gz
在"Hadoop集羣(第3期)"講了VSFTP的安裝及配置,若是沒有安裝VSFTP能夠按照該文檔進行安裝。若是安裝好了,就能夠經過FlashFXP.exe軟件把咱們下載的JDK6.0和Hadoop1.0軟件上傳到"Master.Hadoop:192.168.1.2"服務器上。
剛纔咱們用通常用戶(hadoop)經過FlashFXP軟件把所需的兩個軟件上傳了跟目下,咱們經過命令查看下一下是否已經上傳了。
從圖中,咱們的所需軟件已經準備好了。
Hadoop運行過程當中須要管理遠端Hadoop守護進程,在Hadoop啓動之後,NameNode是經過SSH(Secure Shell)來啓動和中止各個DataNode上的各類守護進程的。這就必須在節點之間執行指令的時候是不須要輸入密碼的形式,故咱們須要配置SSH運用無密碼公鑰認證的形式,這樣NameNode使用SSH無密碼登陸並啓動DataName進程,一樣原理,DataNode上也能使用SSH無密碼登陸到NameNode。
在"Hadoop集羣(第1期)"安裝CentOS6.0時,咱們選擇了一些基本安裝包,因此咱們須要兩個服務:ssh和rsync已經安裝了。能夠經過下面命令查看結果顯示以下:
rpm –qa | grep openssh
rpm –qa | grep rsync
假設沒有安裝ssh和rsync,能夠經過下面命令進行安裝。
yum install ssh 安裝SSH協議
yum install rsync (rsync是一個遠程數據同步工具,可經過LAN/WAN快速同步多臺主機間的文件)
service sshd restart 啓動服務
確保全部的服務器都安裝,上面命令執行完畢,各臺機器之間能夠經過密碼驗證相互登。
1)SSH無密碼原理
Master(NameNode | JobTracker)做爲客戶端,要實現無密碼公鑰認證,鏈接到服務器Salve(DataNode | Tasktracker)上時,須要在Master上生成一個密鑰對,包括一個公鑰和一個私鑰,然後將公鑰複製到全部的Slave上。當Master經過SSH鏈接Salve時,Salve就會生成一個隨機數並用Master的公鑰對隨機數進行加密,併發送給Master。Master收到加密數以後再用私鑰解密,並將解密數回傳給Slave,Slave確認解密數無誤以後就容許Master進行鏈接了。這就是一個公鑰認證過程,其間不須要用戶手工輸入密碼。重要過程是將客戶端Master複製到Slave上。
2)Master機器上生成密碼對
在Master節點上執行如下命令:
ssh-keygen –t rsa –P ''
這條命是生成其無密碼密鑰對,詢問其保存路徑時直接回車採用默認路徑。生成的密鑰對:id_rsa和id_rsa.pub,默認存儲在"/home/hadoop/.ssh"目錄下。
查看"/home/hadoop/"下是否有".ssh"文件夾,且".ssh"文件下是否有兩個剛生產的無密碼密鑰對。
接着在Master節點上作以下配置,把id_rsa.pub追加到受權的key裏面去。
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
在驗證前,須要作兩件事兒。第一件事兒是修改文件"authorized_keys"權限(權限的設置很是重要,由於不安全的設置安全設置,會讓你不能使用RSA功能),另外一件事兒是用root用戶設置"/etc/ssh/sshd_config"的內容。使其無密碼登陸有效。
1)修改文件"authorized_keys"
chmod 600 ~/.ssh/authorized_keys
備註:若是不進行設置,在驗證時,扔提示你輸入密碼,在這裏花費了將近半天時間來查找緣由。在網上查到了幾篇不錯的文章,把做爲"Hadoop集羣_第5期副刊_JDK和SSH無密碼配置"來幫助額外學習之用。
2)設置SSH配置
用root用戶登陸服務器修改SSH配置文件"/etc/ssh/sshd_config"的下列內容。
RSAAuthentication yes # 啓用 RSA 認證
PubkeyAuthentication yes # 啓用公鑰私鑰配對認證方式
AuthorizedKeysFile .ssh/authorized_keys # 公鑰文件路徑(和上面生成的文件同)
設置完以後記得重啓SSH服務,才能使剛纔設置有效。
service sshd restart
退出root登陸,使用hadoop普通用戶驗證是否成功。
ssh localhost
從上圖中得知無密碼登陸本級已經設置完畢,接下來的事兒是把公鑰複製全部的Slave機器上。使用下面的命令格式進行復制公鑰:
scp ~/.ssh/id_rsa.pub 遠程用戶名@遠程服務器IP:~/
例如:
scp ~/.ssh/id_rsa.pub hadoop@192.168.1.3:~/
上面的命令是複製文件"id_rsa.pub"到服務器IP爲"192.168.1.3"的用戶爲"hadoop"的"/home/hadoop/"下面。
下面就針對IP爲"192.168.1.3"的Slave1.Hadoop的節點進行配置。
1)把Master.Hadoop上的公鑰複製到Slave1.Hadoop上
從上圖中咱們得知,已經把文件"id_rsa.pub"傳過去了,由於並無創建起無密碼鏈接,因此在鏈接時,仍然要提示輸入輸入Slave1.Hadoop服務器用戶hadoop的密碼。爲了確保確實已經把文件傳過去了,用SecureCRT登陸Slave1.Hadoop:192.168.1.3服務器,查看"/home/hadoop/"下是否存在這個文件。
從上面得知咱們已經成功把公鑰複製過去了。
2)在"/home/hadoop/"下建立".ssh"文件夾
這一步並非必須的,若是在Slave1.Hadoop的"/home/hadoop"已經存在就不須要建立了,由於咱們以前並無對Slave機器作過無密碼登陸配置,因此該文件是不存在的。用下面命令進行建立。(備註:用hadoop登陸系統,若是不涉及系統文件修改,通常狀況下都是用咱們以前創建的普通用戶hadoop進行執行命令。)
mkdir ~/.ssh
而後是修改文件夾".ssh"的用戶權限,把他的權限修改成"700",用下面命令執行:
chmod 700 ~/.ssh
備註:若是不進行,即便你按照前面的操做設置了"authorized_keys"權限,並配置了"/etc/ssh/sshd_config",還重啓了sshd服務,在Master能用"ssh localhost"進行無密碼登陸,可是對Slave1.Hadoop進行登陸仍然須要輸入密碼,就是由於".ssh"文件夾的權限設置不對。這個文件夾".ssh"在配置SSH無密碼登陸時系統自動生成時,權限自動爲"700",若是是本身手動建立,它的組權限和其餘權限都有,這樣就會致使RSA無密碼遠程登陸失敗。
對比上面兩張圖,發現文件夾".ssh"權限已經變了。
3)追加到受權文件"authorized_keys"
到目前爲止Master.Hadoop的公鑰也有了,文件夾".ssh"也有了,且權限也修改了。這一步就是把Master.Hadoop的公鑰追加到Slave1.Hadoop的受權文件"authorized_keys"中去。使用下面命令進行追加並修改"authorized_keys"文件權限:
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
4)用root用戶修改"/etc/ssh/sshd_config"
具體步驟參考前面Master.Hadoop的"設置SSH配置",具體分爲兩步:第1是修改配置文件;第2是重啓SSH服務。
5)用Master.Hadoop使用SSH無密碼登陸Slave1.Hadoop
當前面的步驟設置完畢,就可使用下面命令格式進行SSH無密碼登陸了。
ssh 遠程服務器IP
從上圖咱們主要3個地方,第1個就是SSH無密碼登陸命令,第二、3個就是登陸先後"@"後面的機器名變了,由"Master"變爲了"Slave1",這就說明咱們已經成功實現了SSH無密碼登陸了。
最後記得把"/home/hadoop/"目錄下的"id_rsa.pub"文件刪除掉。
rm –r ~/id_rsa.pub
到此爲止,咱們通過前5步已經實現了從"Master.Hadoop"到"Slave1.Hadoop"SSH無密碼登陸,下面就是重複上面的步驟把剩餘的兩臺(Slave2.Hadoop和Slave3.Hadoop)Slave服務器進行配置。這樣,咱們就完成了"配置Master無密碼登陸全部的Slave服務器"。
和Master無密碼登陸全部Slave原理同樣,就是把Slave的公鑰追加到Master的".ssh"文件夾下的"authorized_keys"中,記得是追加(>>)。
爲了說明狀況,咱們如今就以"Slave1.Hadoop"無密碼登陸"Master.Hadoop"爲例,進行一遍操做,也算是鞏固一下前面所學知識,剩餘的"Slave2.Hadoop"和"Slave3.Hadoop"就按照這個示例進行就能夠了。
首先建立"Slave1.Hadoop"本身的公鑰和私鑰,並把本身的公鑰追加到"authorized_keys"文件中。用到的命令以下:
ssh-keygen –t rsa –P ''
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
接着是用命令"scp"複製"Slave1.Hadoop"的公鑰"id_rsa.pub"到"Master.Hadoop"的"/home/hadoop/"目錄下,並追加到"Master.Hadoop"的"authorized_keys"中。
1)在"Slave1.Hadoop"服務器的操做
用到的命令以下:
scp ~/.ssh/id_rsa.pub hadoop@192.168.1.2:~/
2)在"Master.Hadoop"服務器的操做
用到的命令以下:
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
而後刪除掉剛纔複製過來的"id_rsa.pub"文件。
最後是測試從"Slave1.Hadoop"到"Master.Hadoop"無密碼登陸。
從上面結果中能夠看到已經成功實現了,再試下從"Master.Hadoop"到"Slave1.Hadoop"無密碼登陸。
至此"Master.Hadoop"與"Slave1.Hadoop"之間能夠互相無密碼登陸了,剩下的就是按照上面的步驟把剩餘的"Slave2.Hadoop"和"Slave3.Hadoop"與"Master.Hadoop"之間創建起無密碼登陸。這樣,Master能無密碼驗證登陸每一個Slave,每一個Slave也能無密碼驗證登陸到Master。
全部的機器上都要安裝JDK,如今就先在Master服務器安裝,而後其餘服務器按照步驟重複進行便可。安裝JDK以及配置環境變量,須要以"root"的身份進行。
首先用root身份登陸"Master.Hadoop"後在"/usr"下建立"java"文件夾,再把用FTP上傳到"/home/hadoop/"下的"jdk-6u31-linux-i586.bin"複製到"/usr/java"文件夾中。
mkdir /usr/java
cp /home/hadoop/ jdk-6u31-linux-i586.bin /usr/java
接着進入"/usr/java"目錄下經過下面命令使其JDK得到可執行權限,並安裝JDK。
chmod +x jdk-6u31-linux-i586.bin
./jdk-6u31-linux-i586.bin
按照上面幾步進行操做,最後點擊"Enter"鍵開始安裝,安裝完會提示你按"Enter"鍵退出,而後查看"/usr/java"下面會發現多了一個名爲"jdk1.6.0_31"文件夾,說明咱們的JDK安裝結束,刪除"jdk-6u31-linux-i586.bin"文件,進入下一個"配置環境變量"環節。
編輯"/etc/profile"文件,在後面添加Java的"JAVA_HOME"、"CLASSPATH"以及"PATH"內容。
1)編輯"/etc/profile"文件
vim /etc/profile
2)添加Java環境變量
在"/etc/profile"文件的尾部添加如下內容:
# set java environment
export JAVA_HOME=/usr/java/jdk1.6.0_31/
export JRE_HOME=/usr/java/jdk1.6.0_31/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
或者
# set java environment
export JAVA_HOME=/usr/java/jdk1.6.0_31
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
以上兩種意思同樣,那麼咱們就選擇第2種來進行設置。
3)使配置生效
保存並退出,執行下面命令使其配置當即生效。
source /etc/profile
配置完畢並生效後,用下面命令判斷是否成功。
java -version
從上圖中得知,咱們以肯定JDK已經安裝成功。
這時用普通用戶hadoop經過下面命令格式把"Master.Hadoop"文件夾"/home/hadoop/"的JDK複製到其餘Slave的"/home/hadoop/"下面,剩下的事兒就是在其他的Slave服務器上按照上圖的步驟安裝JDK。
scp /home/hadoop/jdk-6u31-linux-i586.bin 遠程用戶名@遠程服務器IP:~/
或者
scp ~/jdk-6u31-linux-i586.bin 遠程用戶名@遠程服務器IP:~/
備註:"~"表明當前用戶的主目錄,當前用戶爲hadoop,因此"~"表明"/home/hadoop"。
例如:把JDK從"Master.Hadoop"複製到"Slave1.Hadoop"的命令以下。
scp ~/jdk-6u31-linux-i586 hadoop@192.168.1.3:~/
而後查看"Slave1.Hadoop"的"/home/hadoop"查看是否已經複製成功了。
從上圖中得知,咱們已經成功複製了,如今咱們就用最高權限用戶root進行安裝了。其餘的與這個同樣。
全部的機器上都要安裝hadoop,如今就先在Master服務器安裝,而後其餘服務器按照步驟重複進行便可。安裝和配置hadoop須要以"root"的身份進行。
首先用root用戶登陸"Master.Hadoop"機器,查看咱們以前用FTP上傳至"/home/Hadoop"上傳的"hadoop-1.0.0.tar.gz"。
接着把"hadoop-1.0.0.tar.gz"複製到"/usr"目錄下面。
cp /home/hadoop/hadoop-1.0.0.tar.gz /usr
下一步進入"/usr"目錄下,用下面命令把"hadoop-1.0.0.tar.gz"進行解壓,並將其命名爲"hadoop",把該文件夾的讀權限分配給普通用戶hadoop,而後刪除"hadoop-1.0.0.tar.gz"安裝包。
cd /usr #進入"/usr"目錄
tar –zxvf hadoop-1.0.0.tar.gz #解壓"hadoop-1.0.0.tar.gz"安裝包
mv hadoop-1.0.0 hadoop #將"hadoop-1.0.0"文件夾重命名"hadoop"
chown –R hadoop:hadoop hadoop #將文件夾"hadoop"讀權限分配給hadoop用戶
rm –rf hadoop-1.0.0.tar.gz #刪除"hadoop-1.0.0.tar.gz"安裝包
解壓後,並重命名。
把"/usr/hadoop"讀權限分配給hadoop用戶(很是重要)
刪除"hadoop-1.0.0.tar.gz"安裝包
最後在"/usr/hadoop"下面建立tmp文件夾,把Hadoop的安裝路徑添加到"/etc/profile"中,修改"/etc/profile"文件(配置java環境變量的文件),將如下語句添加到末尾,並使其有效:
# set hadoop path
export HADOOP_HOME=/usr/hadoop
export PATH=$PATH :$HADOOP_HOME/bin
1)在"/usr/hadoop"建立"tmp"文件夾
mkdir /usr/hadoop/tmp
2)配置"/etc/profile"
vim /etc/profile
配置後的文件以下:
3)重啓"/etc/profile"
source /etc/profile
1)配置hadoop-env.sh
該"hadoop-env.sh"文件位於"/usr/hadoop/conf"目錄下。
在文件的末尾添加下面內容。
# set java environment
export JAVA_HOME=/usr/java/jdk1.6.0_31
Hadoop配置文件在conf目錄下,以前的版本的配置文件主要是Hadoop-default.xml和Hadoop-site.xml。因爲Hadoop發展迅速,代碼量急劇增長,代碼開發分爲了core,hdfs和map/reduce三部分,配置文件也被分紅了三個core-site.xml、hdfs-site.xml、mapred-site.xml。core-site.xml和hdfs-site.xml是站在HDFS角度上配置文件;core-site.xml和mapred-site.xml是站在MapReduce角度上配置文件。
2)配置core-site.xml文件
修改Hadoop核心配置文件core-site.xml,這裏配置的是HDFS的地址和端口號。
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value>
(備註:請先在 /usr/hadoop 目錄下創建 tmp 文件夾)
<description>A base for other temporary directories.</description>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.2:9000</value>
</property>
</configuration>
備註:如沒有配置hadoop.tmp.dir參數,此時系統默認的臨時目錄爲:/tmp/hadoo-hadoop。而這個目錄在每次重啓後都會被幹掉,必須從新執行format才行,不然會出錯。
用下面命令進行編輯:
編輯結果顯示以下:
3)配置hdfs-site.xml文件
修改Hadoop中HDFS的配置,配置的備份方式默認爲3。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
(備註:replication 是數據副本數量,默認爲3,salve少於3臺就會報錯)
</property>
<configuration>
用下面命令進行編輯:
編輯結果顯示以下:
4)配置mapred-site.xml文件
修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.1.2:9001</value>
</property>
</configuration>
用下面命令進行編輯:
編輯結果顯示以下:
5)配置masters文件
有兩種方案:
(1)第一種
修改localhost爲Master.Hadoop
(2)第二種
去掉"localhost",加入Master機器的IP:192.168.1.2
爲保險起見,啓用第二種,由於萬一忘記配置"/etc/hosts"局域網的DNS失效,這樣就會出現意想不到的錯誤,可是一旦IP配對,網絡暢通,就能經過IP找到相應主機。
用下面命令進行修改:
編輯結果顯示以下:
6)配置slaves文件(Master主機特有)
有兩種方案:
(1)第一種
去掉"localhost",每行只添加一個主機名,把剩餘的Slave主機名都填上。
例如:添加形式以下
Slave1.Hadoop
Slave2.Hadoop
Slave3.Hadoop
(2)第二種
去掉"localhost",加入集羣中全部Slave機器的IP,也是每行一個。
例如:添加形式以下
192.168.1.3
192.168.1.4
192.168.1.5
緣由和添加"masters"文件同樣,選擇第二種方式。
用下面命令進行修改:
編輯結果以下:
如今在Master機器上的Hadoop配置就結束了,剩下的就是配置Slave機器上的Hadoop。
一種方式是按照上面的步驟,把Hadoop的安裝包在用普通用戶hadoop經過"scp"複製到其餘機器的"/home/hadoop"目錄下,而後根據實際狀況進行安裝配置,除了第6步,那是Master特有的。用下面命令格式進行。(備註:此時切換到普通用戶hadoop)
scp ~/hadoop-1.0.0.tar.gz hadoop@服務器IP:~/
例如:從"Master.Hadoop"到"Slave1.Hadoop"複製Hadoop的安裝包。
另外一種方式是將 Master上配置好的hadoop所在文件夾"/usr/hadoop"複製到全部的Slave的"/usr"目錄下(實際上Slave機器上的slavers文件是沒必要要的, 複製了也沒問題)。用下面命令格式進行。(備註:此時用戶能夠爲hadoop也能夠爲root)
scp -r /usr/hadoop root@服務器IP:/usr/
例如:從"Master.Hadoop"到"Slave1.Hadoop"複製配置Hadoop的文件。
上圖中以root用戶進行復制,固然無論是用戶root仍是hadoop,雖然Master機器上的"/usr/hadoop"文件夾用戶hadoop有權限,可是Slave1上的hadoop用戶卻沒有"/usr"權限,因此沒有建立文件夾的權限。因此不管是哪一個用戶進行拷貝,右面都是"root@機器IP"格式。由於咱們只是創建起了hadoop用戶的SSH無密碼鏈接,因此用root進行"scp"時,扔提示讓你輸入"Slave1.Hadoop"服務器用戶root的密碼。
查看"Slave1.Hadoop"服務器的"/usr"目錄下是否已經存在"hadoop"文件夾,確認已經複製成功。查看結果以下:
從上圖中知道,hadoop文件夾確實已經複製了,可是咱們發現hadoop權限是root,因此咱們如今要給"Slave1.Hadoop"服務器上的用戶hadoop添加對"/usr/hadoop"讀權限。
以root用戶登陸"Slave1.Hadoop",執行下面命令。
chown -R hadoop:hadoop(用戶名:用戶組) hadoop(文件夾)
接着在"Slave1 .Hadoop"上修改"/etc/profile"文件(配置 java 環境變量的文件),將如下語句添加到末尾,並使其有效(source /etc/profile):
# set hadoop environment
export HADOOP_HOME=/usr/hadoop
export PATH=$PATH :$HADOOP_HOME/bin
若是不知道怎麼設置,能夠查看前面"Master.Hadoop"機器的"/etc/profile"文件的配置,到此爲此在一臺Slave機器上的Hadoop配置就結束了。剩下的事兒就是照葫蘆畫瓢把剩餘的幾臺Slave機器按照《從"Master.Hadoop"到"Slave1.Hadoop"複製Hadoop的安裝包。》這個例子進行部署Hadoop。
1)格式化HDFS文件系統
在"Master.Hadoop"上使用普通用戶hadoop進行操做。(備註:只需一次,下次啓動再也不須要格式化,只需 start-all.sh)
hadoop namenode -format
某些書上和網上的某些資料中用下面命令執行。
咱們在看好多文檔包括有些書上,按照他們的hadoop環境變量進行配置後,並當即使其生效,可是執行發現沒有找見"bin/hadoop"這個命令。
其實咱們會發現咱們的環境變量配置的是"$HADOOP_HOME/bin",咱們已經把bin包含進入了,因此執行時,加上"bin"反而找不到該命令,除非咱們的hadoop壞境變量以下設置。
# set hadoop path
export HADOOP_HOME=/usr/hadoop
export PATH=$PATH : $HADOOP_HOME :$HADOOP_HOME/bin
這樣就能直接使用"bin/hadoop"也能夠直接使用"hadoop",如今無論哪一種狀況,hadoop命令都能找見了。咱們也沒有必要從新在設置hadoop環境變量了,只須要記住執行Hadoop命令時不須要在前面加"bin"就能夠了。
從上圖中知道咱們已經成功格式話了,可是美中不足就是出現了一個警告,從網上的得知這個警告並不影響hadoop執行,可是也有辦法解決,詳情看後面的"常見問題FAQ"。
2)啓動hadoop
在啓動前關閉集羣中全部機器的防火牆,否則會出現datanode開後又自動關閉。
service iptables stop
使用下面命令啓動。
start-all.sh
執行結果以下:
能夠經過如下啓動日誌看出,首先啓動namenode 接着啓動datanode1,datanode2,…,而後啓動secondarynamenode。再啓動jobtracker,而後啓動tasktracker1,tasktracker2,…。
啓動 hadoop成功後,在 Master 中的 tmp 文件夾中生成了 dfs 文件夾,在Slave 中的 tmp 文件夾中均生成了 dfs 文件夾和 mapred 文件夾。
查看Master中"/usr/hadoop/tmp"文件夾內容
查看Slave1中"/usr/hadoop/tmp"文件夾內容。
3)驗證hadoop
(1)驗證方法一:用"jps"命令
在Master上用 java自帶的小工具jps查看進程。
在Slave1上用jps查看進程。
若是在查看Slave機器中發現"DataNode"和"TaskTracker"沒有起來時,先查看一下日誌的,若是是"namespaceID"不一致問題,採用"常見問題FAQ6.2"進行解決,若是是"No route to host"問題,採用"常見問題FAQ6.3"進行解決。
(2)驗證方式二:用"hadoop dfsadmin -report"
用這個命令能夠查看Hadoop集羣的狀態。
Master服務器的狀態:
Slave服務器的狀態
1)訪問"http:192.168.1.2:50030"
2)訪問"http:192.168.1.2:50070"
hadoop 1.0.0版本,安裝完以後敲入hadoop命令時,老是提示這個警告:
Warning: $HADOOP_HOME is deprecated.
經查hadoop-1.0.0/bin/hadoop腳本和"hadoop-config.sh"腳本,發現腳本中對HADOOP_HOME的環境變量設置作了判斷,筆者的環境根本不須要設置HADOOP_HOME環境變量。
解決方案一:編輯"/etc/profile"文件,去掉HADOOP_HOME的變量設定,從新輸入hadoop fs命令,警告消失。
解決方案二:編輯"/etc/profile"文件,添加一個環境變量,以後警告消失:
export HADOOP_HOME_WARN_SUPPRESS=1
解決方案三:編輯"hadoop-config.sh"文件,把下面的"if - fi"功能註釋掉。
咱們這裏本着不動Hadoop原配置文件的前提下,採用"方案二",在"/etc/profile"文件添加上面內容,並用命令"source /etc/profile"使之有效。
1)切換至root用戶
2)添加內容
3)從新生效
當我中止Hadoop時發現以下信息:
緣由:每次namenode format會從新建立一個namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode下的數據,可是沒有清空datanode下的數據,致使啓動時失敗,所要作的就是每次fotmat前,清空tmp一下的全部目錄。
第一種解決方案以下:
1)先刪除"/usr/hadoop/tmp"
rm -rf /usr/hadoop/tmp
2)建立"/usr/hadoop/tmp"文件夾
mkdir /usr/hadoop/tmp
3)刪除"/tmp"下以"hadoop"開頭文件
rm -rf /tmp/hadoop*
4)從新格式化hadoop
hadoop namenode -format
5)啓動hadoop
start-all.sh
使用第一種方案,有種很差處就是原來集羣上的重要數據全沒有了。假如說Hadoop集羣已經運行了一段時間。建議採用第二種。
第二種方案以下:
1)修改每一個Slave的namespaceID使其與Master的namespaceID一致。
或者
2)修改Master的namespaceID使其與Slave的namespaceID一致。
該"namespaceID"位於"/usr/hadoop/tmp/dfs/data/current/VERSION"文件中,前面藍色的可能根據實際狀況變化,但後面紅色是不變的。
例如:查看"Master"下的"VERSION"文件
本人建議採用第二種,這樣方便快捷,並且還能防止誤刪。
查看日誌發下以下錯誤。
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to ... failed on local exception: java.net.NoRouteToHostException: No route to host
解決方案是:關閉防火牆
service iptables stop
出現以下錯誤:
INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad connect ack with firstBadLink
INFO hdfs.DFSClient: Abandoning block blk_-1300529705803292651_37023
WARN hdfs.DFSClient: DataStreamer Exception: java.io.IOException: Unable to create new block.
解決方案是:
1)關閉防火牆
service iptables stop
2)禁用selinux
編輯 "/etc/selinux/config"文件,設置"SELINUX=disabled"
出現以下錯誤:
org.apache.hadoop.dfs.SafeModeException: Cannot delete ..., Name node is in safe mode
在分佈式文件系統啓動的時候,開始的時候會有安全模式,當分佈式文件系統處於安全模式的狀況下,文件系統中的內容不容許修改也不容許刪除,直到安全模式結束。安全模式主要是爲了系統啓動的時候檢查各個DataNode上數據塊的有效性,同時根據策略必要的複製或者刪除部分數據塊。運行期經過命令也能夠進入安全模式。在實踐過程當中,系統啓動的時候去修改和刪除文件也會有安全模式不容許修改的出錯提示,只須要等待一下子便可。
解決方案是:關閉安全模式
hadoop dfsadmin -safemode leave
出現錯誤以下:
Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out
程序裏面須要打開多個文件,進行分析,系統通常默認數量是1024,(用ulimit -a能夠看到)對於正常使用是夠了,可是對於程序來說,就太少了。
解決方案是:修改2個文件。
1)"/etc/security/limits.conf"
vim /etc/security/limits.conf
加上:
soft nofile 102400
hard nofile 409600
2)"/etc/pam.d/login"
vim /etc/pam.d/login
添加:
session required /lib/security/pam_limits.so
針對第一個問題我糾正下答案:
這是reduce預處理階段shuffle時獲取已完成的map的輸出失敗次數超過上限形成的,上限默認爲5。引發此問題的方式可能會有不少種,好比網絡鏈接不正常,鏈接超時,帶寬較差以及端口阻塞等。一般框架內網絡狀況較好是不會出現此錯誤的。
出現這個問題主要是結點間的連通不夠全面。
解決方案是:
1)檢查"/etc/hosts"
要求本機ip 對應 服務器名
要求要包含全部的服務器ip +服務器名
2)檢查".ssh/authorized_keys"
要求包含全部服務器(包括其自身)的public key
出現map很快,可是reduce很慢,並且反覆出現"reduce=0%"。
解決方案以下:
結合解決方案5.7,而後修改"conf/hadoop-env.sh"中的"export HADOOP_HEAPSIZE=4000"
出現這種異常,明顯是jvm內存不夠得緣由。
解決方案以下:要修改全部的datanode的jvm內存大小。
Java –Xms 1024m -Xmx 4096m
通常jvm的最大內存使用應該爲總內存大小的一半,咱們使用的8G內存,因此設置爲4096m,這一值可能依舊不是最優的值。
解決方案以下:
bin/hadoop dfsadmin -safemode leave
0-1246359584298, infoPort=50075, ipcPort=50020):Got exception while serving blk_-5911099437886836280_1292 to /172.16.100.165:
java.net.SocketTimeoutException: 480000 millis timeout while waiting for channel to be ready for write. ch : java.nio.channels.SocketChannel[connected local=/
172.16.100.165:50010 remote=/172.16.100.165:50930]
at org.apache.hadoop.net.SocketIOWithTimeout.waitForIO(SocketIOWithTimeout.java:185)
at org.apache.hadoop.net.SocketOutputStream.waitForWritable(SocketOutputStream.java:159)
……
It seems there are many reasons that it can timeout, the example given in HADOOP-3831 is a slow reading client.
解決方案以下:
在hadoop-site.xml中設置dfs.datanode.socket.write.timeout=0
錯誤類型:
java.io.IOException: Task process exit with nonzero status of 255.
at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:424)
錯誤緣由:
Set mapred.jobtracker.retirejob.interval and mapred.userlog.retain.hours to higher value. By default, their values are 24 hours. These might be the reason for failure, though I'm not sure restart.
解決方案以下:單個datanode
若是一個datanode 出現問題,解決以後須要從新加入cluster而不重啓cluster,方法以下:
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start jobtracker
使用權限:全部使用者
使用方式:chmod [-cfvR] [--help] [--version] mode file...
說明:
Linux/Unix 的檔案存取權限分爲三級 : 檔案擁有者、羣組、其餘。利用 chmod 能夠藉以控制檔案如何被他人所存取。
mode :權限設定字串,格式以下 :[ugoa...][[+-=][rwxX]...][,...],其中u 表示該檔案的擁有者,g 表示與該檔案的擁有者屬於同一個羣體(group)者,o 表示其餘之外的人,a 表示這三者皆是。
+ 表示增長權限、- 表示取消權限、= 表示惟一設定權限。
r 表示可讀取,w 表示可寫入,x 表示可執行,X 表示只有當該檔案是個子目錄或者該檔案已經被設定過爲可執行。
-c : 若該檔案權限確實已經更改,才顯示其更改動做
-f : 若該檔案權限沒法被更改也不要顯示錯誤訊息
-v : 顯示權限變動的詳細資料
-R : 對目前目錄下的全部檔案與子目錄進行相同的權限變動(即以遞迴的方式逐個變動)
--help : 顯示輔助說明
--version : 顯示版本
範例:
將檔案 file1.txt 設爲全部人皆可讀取
chmod ugo+r file1.txt
將檔案 file1.txt 設爲全部人皆可讀取
chmod a+r file1.txt
將檔案 file1.txt 與 file2.txt 設爲該檔案擁有者,與其所屬同一個羣體者可寫入,但其餘之外的人則不可寫入
chmod ug+w,o-w file1.txt file2.txt
將 ex1.py 設定爲只有該檔案擁有者能夠執行
chmod u+x ex1.py
將目前目錄下的全部檔案與子目錄皆設爲任何人可讀取
chmod -R a+r *
此外chmod也能夠用數字來表示權限如 chmod 777 file
語法爲:chmod abc file
其中a,b,c各爲一個數字,分別表示User、Group、及Other的權限。
r=4,w=2,x=1
若要rwx屬性則4+2+1=7;
若要rw-屬性則4+2=6;
若要r-x屬性則4+1=7。
範例:
chmod a=rwx file 和 chmod 777 file 效果相同
chmod ug=rwx,o=x file 和 chmod 771 file 效果相同
若用chmod 4755 filename可以使此程式具備root的權限
使用權限:root
使用方式:chown [-cfhvR] [--help] [--version] user[:group] file...
說明:
Linux/Unix 是多人多工做業系統,全部的檔案皆有擁有者。利用 chown 能夠將檔案的擁有者加以改變。通常來講,這個指令只有是由系統管理者(root)所使用,通常使用者沒有權限能夠改變別人的檔案擁有者,也沒有權限能夠本身的檔案擁有者改設爲別人。只有系統管理者(root)纔有這樣的權限。
user : 新的檔案擁有者的使用者
IDgroup : 新的檔案擁有者的使用者羣體(group)
-c : 若該檔案擁有者確實已經更改,才顯示其更改動做
-f : 若該檔案擁有者沒法被更改也不要顯示錯誤訊息
-h : 只對於連結(link)進行變動,而非該 link 真正指向的檔案
-v : 顯示擁有者變動的詳細資料
-R : 對目前目錄下的全部檔案與子目錄進行相同的擁有者變動(即以遞迴的方式逐個變動)
--help : 顯示輔助說明
--version : 顯示版本
範例:
將檔案 file1.txt 的擁有者設爲 users 羣體的使用者 jessie
chown jessie:users file1.txt
將目前目錄下的全部檔案與子目錄的擁有者皆設爲 users 羣體的使用者 lamport
chown -R lamport:users *
-rw------- (600) -- 只有屬主有讀寫權限。
-rw-r--r-- (644) -- 只有屬主有讀寫權限;而屬組用戶和其餘用戶只有讀權限。
-rwx------ (700) -- 只有屬主有讀、寫、執行權限。
-rwxr-xr-x (755) -- 屬主有讀、寫、執行權限;而屬組用戶和其餘用戶只有讀、執行權限。
-rwx--x--x (711) -- 屬主有讀、寫、執行權限;而屬組用戶和其餘用戶只有執行權限。
-rw-rw-rw- (666) -- 全部用戶都有文件讀、寫權限。這種作法不可取。
-rwxrwxrwx (777) -- 全部用戶都有讀、寫、執行權限。更不可取的作法。
如下是對目錄的兩個普通設定:
drwx------ (700) - 只有屬主可在目錄中讀、寫。
drwxr-xr-x (755) - 全部用戶可讀該目錄,但只有屬主才能改變目錄中的內容
suid的表明數字是4,好比4755的結果是-rwsr-xr-x
sgid的表明數字是2,好比6755的結果是-rwsr-sr-x
sticky位表明數字是1,好比7755的結果是-rwsr-sr-t
scp是 secure copy的縮寫,scp是linux系統下基於ssh登錄進行安全的遠程文件拷貝命令。linux的scp命令能夠在linux服務器之間複製文件和目錄。
scp命令的用處:
scp在網絡上不一樣的主機之間複製文件,它使用ssh安全協議傳輸數據,具備和ssh同樣的驗證機制,從而安全的遠程拷貝文件。
scp命令基本格式:
scp [-1246BCpqrv] [-c cipher] [-F ssh_config] [-i identity_file]
[-l limit] [-o ssh_option] [-P port] [-S program]
[[user@]host1:]file1 [...] [[user@]host2:]file2
scp命令的參數說明:
-1 強制scp命令使用協議ssh1
-2 強制scp命令使用協議ssh2
-4 強制scp命令只使用IPv4尋址
-6 強制scp命令只使用IPv6尋址
-B 使用批處理模式(傳輸過程當中不詢問傳輸口令或短語)
-C 容許壓縮。(將-C標誌傳遞給ssh,從而打開壓縮功能)
-p 保留原文件的修改時間,訪問時間和訪問權限。
-q 不顯示傳輸進度條。
-r 遞歸複製整個目錄。
-v 詳細方式顯示輸出。scp和ssh(1)會顯示出整個過程的調試信息。這些信息用於調試鏈接,驗證和配置問題。
-c cipher 以cipher將數據傳輸進行加密,這個選項將直接傳遞給ssh。
-F ssh_config 指定一個替代的ssh配置文件,此參數直接傳遞給ssh。
-i identity_file 從指定文件中讀取傳輸時使用的密鑰文件,此參數直接傳遞給ssh。
-l limit 限定用戶所能使用的帶寬,以Kbit/s爲單位。
-o ssh_option 若是習慣於使用ssh_config(5)中的參數傳遞方式,
-P port 注意是大寫的P, port是指定數據傳輸用到的端口號
-S program 指定加密傳輸時所使用的程序。此程序必須可以理解ssh(1)的選項。
scp命令的實際應用
1)從本地服務器複製到遠程服務器
(1) 複製文件:
命令格式:
scp local_file remote_username@remote_ip:remote_folder
或者
scp local_file remote_username@remote_ip:remote_file
或者
scp local_file remote_ip:remote_folder
或者
scp local_file remote_ip:remote_file
第1,2個指定了用戶名,命令執行後須要輸入用戶密碼,第1個僅指定了遠程的目錄,文件名字不變,第2個指定了文件名
第3,4個沒有指定用戶名,命令執行後須要輸入用戶名和密碼,第3個僅指定了遠程的目錄,文件名字不變,第4個指定了文件名
實例:
scp /home/linux/soft/scp.zip root@www.mydomain.com:/home/linux/others/soft
scp /home/linux/soft/scp.zip root@www.mydomain.com:/home/linux/others/soft/scp2.zip
scp /home/linux/soft/scp.zip www.mydomain.com:/home/linux/others/soft
scp /home/linux/soft/scp.zip www.mydomain.com:/home/linux/others/soft/scp2.zip
(2) 複製目錄:
命令格式:
scp -r local_folder remote_username@remote_ip:remote_folder
或者
scp -r local_folder remote_ip:remote_folder
第1個指定了用戶名,命令執行後須要輸入用戶密碼;
第2個沒有指定用戶名,命令執行後須要輸入用戶名和密碼;
例子:
scp -r /home/linux/soft/ root@www.mydomain.com:/home/linux/others/
scp -r /home/linux/soft/ www.mydomain.com:/home/linux/others/
上面 命令 將 本地 soft 目錄 複製 到 遠程 others 目錄下,即複製後遠程服務器上會有/home/linux/others/soft/ 目錄。
2)從遠程服務器複製到本地服務器
從遠程複製到本地的scp命令與上面的命令雷同,只要將從本地複製到遠程的命令後面2個參數互換順序就好了。
例如:
scp root@www.mydomain.com:/home/linux/soft/scp.zip /home/linux/others/scp.zip
scp www.mydomain.com:/home/linux/soft/ -r /home/linux/others/