集羣環境:node
- centOs6.8:hadoop102,hadoop103,hadoop104
- jdk版本:jdk1.8.0_144
- hadoop版本:Hadoop 2.7.2
首先準備三臺客戶機(hadoop102,hadoop103,hadoop104),關閉防火牆,修改成靜態ip和ip地址映射web
編寫集羣分發腳本
[kocdaniel@hadoop102 ~]$ mkdir bin [kocdaniel@hadoop102 ~]$ cd bin/ [kocdaniel@hadoop102 bin]$ vim xsync
在文件中編寫以下腳本代碼shell
#!/bin/bash #1 獲取輸入參數個數,若是沒有參數,直接退出 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 獲取文件名稱 p1=$1 fname=`basename $p1` echo fname=$fname #3 獲取上級目錄到絕對路徑 –P指向實際物理地址,防止軟鏈接 pdir=`cd -P $(dirname $p1); pwd` echo pdir=$pdir #4 獲取當前用戶名稱 user=`whoami` #5 循環 for((host=103; host<105; host++)); do echo ------------------- hadoop$host -------------- rsync -rvl $pdir/$fname $user@hadoop$host:$pdir done
[kocdaniel@hadoop102 bin]$ chmod 777 xsync [kocdaniel@hadoop102 bin]$ xsync /home/atguigu/bin
集羣配置
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNode DataNode | DataNode | SecondaryNameNode DataNode |
YARN | NodeManager | ResourceManager NodeManager | NodeManager |
因爲計算機配置有限,只能使用三臺虛擬機,工做環境中根據須要規劃集羣vim
切換到hadoop安裝目錄/etc/hadoop/
bash
[kocdaniel@hadoop102 hadoop]$ vim core-site.xml # 在文件中寫入以下內容 <!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop102:9000</value> </property> <!-- 指定Hadoop運行時產生文件的存儲目錄 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-2.7.2/data/tmp</value> </property>
HDFS配置文件ssh
hadoop-env.sh
[kocdaniel@hadoop102 hadoop]$ vim hadoop-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144
注意:咱們已經在/etc/profile文件中配置了JAVA_HOME,這裏爲何還須要配置JAVA_HOME?oop
答:由於Hadoop運行是守護進程(守護進程是一個在後臺運行而且不受任何終端控制的進程。--摘自百度百科)),正是由於它後臺運行,不接受任何終端控制,因此它讀取不到咱們配置好的環境變量,因此這裏須要單獨配置一下。ui
hdfs-site.xml
[kocdaniel@hadoop102 hadoop]$ vim hdfs-site.xml # 寫入以下配置 <!-- 配置副本數量爲3,默認也爲3,因此這個也能夠刪掉 --> <property> <name>dfs.replication</name> <value>3</value> </property> <!-- 指定Hadoop輔助名稱節點主機配置 --> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop104:50090</value> </property>
YARN配置文件spa
yarn-env.sh
[kocdaniel@hadoop102 hadoop]$ vim yarn-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144
yarn-site.xml
[kocdaniel@hadoop102 hadoop]$ vi yarn-site.xml # 增長以下配置 <!-- Reducer獲取數據的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 指定YARN的ResourceManager的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop103</value> </property>
MapReduce配置文件日誌
mapred-env.sh
[kocdaniel@hadoop102 hadoop]$ vim mapred-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144
mapred-site.xml
# 若是是第一次配置的話,須要先將mapred-site.xml.template重命名爲mapred-site.xml [kocdaniel@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml [kocdaniel@hadoop102 hadoop]$ vim mapred-site.xml # 在文件中增長以下配置 <!-- 指定MR運行在Yarn上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
[kocdaniel@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop namenode -format
格式化須要注意的問題:
正確的格式化姿式:
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 3461 NameNode
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 3461 NameNode 3608 Jps 3561 DataNode [kocdaniel@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [kocdaniel@hadoop103 hadoop-2.7.2]$ jps 3190 DataNode 3279 Jps [kocdaniel@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [kocdaniel@hadoop104 hadoop-2.7.2]$ jps 3237 Jps 3163 DataNode
可是以上單點啓動有一個問題:
配置ssh
免密ssh配置
在配置namenode的主機hadoop102上生成私鑰和公鑰
切換目錄到/home/用戶名/.ssh/
[kocdaniel@hadoop102 .ssh]$ ssh-keygen -t rsa
- 而後敲(三個回車),就會生成兩個文件id_rsa(私鑰)、id_rsa.pub(公鑰) - 將公鑰拷貝到要免密登陸的目標機器上 ```shell [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop103 [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop104 # 注意:ssh訪問本身也須要輸入密碼,因此咱們須要將公鑰也拷貝給102 [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop102 ```
配置slaves
hadoop安裝目錄/etc/hadoop/
[kocdaniel@hadoop102 hadoop]$ vim slaves # 注意結尾不能有空格,文件中不能有空行 hadoop102 hadoop103 hadoop104
[kocdaniel@hadoop102 hadoop]$ xsync slaves
啓動集羣
[kocdaniel@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh # 查看啓動結果,和集羣規劃(配置文件中)的一致 [atguigu@hadoop102 hadoop-2.7.2]$ jps 4166 NameNode 4482 Jps 4263 DataNode [atguigu@hadoop103 hadoop-2.7.2]$ jps 3218 DataNode 3288 Jps [atguigu@hadoop104 hadoop-2.7.2]$ jps 3221 DataNode 3283 SecondaryNameNode 3364 Jps
# 注意:NameNode和ResourceManger若是不是同一臺機器,不能在NameNode上啓動 YARN,應該在ResouceManager所在的機器上啓動YARN [kocdaniel@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh