本節目的:搭建Hadoop分佈式集羣環境node
vi /etc/sysconfig/network
hostname master
檢測主機名是否修改爲功命令以下,在操做以前須要關閉當前終端,從新打開一個終端:便可看到終端命令前是[user@hostname]web
service iptables stop
vi /etc/hosts
添加內容(LZ master Ip是10.211.55.3,Salve Ip 是10.211.55.4)瀏覽器
ping slave
ping master
如圖表示修改爲功app
ssh-keygen -t rsa (屢次回車(Enter)便可)
複製公鑰文件框架
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
執行 ll查看 ssh
修改authorized_keys文件的權限,命令以下:webapp
chmod 600 ~/.ssh/authorized_keys (執行後文件權限爲 -rw------- )
將authorized_keys文件複製到slave節點,命令以下:分佈式
scp ~/.ssh/authorized_keys mfz@slave:~/ (若是提示輸入yes/no的時候,輸入yes,回車密碼是mfz slave登陸密碼)
ssh-keygen -t rsa
將authorized_keys文件移動到.ssh目錄oop
mv authorized_keys ~/.ssh/
cd ~/.ssh
chmod 600 authorized_keys
ssh slave
若是還提示輸入slave登陸密碼則配置出錯。檢查步驟。spa
每一個節點上的Hadoop配置基本相同,在HadoopMaster節點操做,而後完成複製到另外一個節點。下面全部的操做都使用mfz用戶,切換mfz用戶的命令是:su mfz
cp /home/mfz/resources/hadoop-2.7.3.tar.gz /home/mfz/ cd /home/mfz tar -xzvf hadoop-2.7.3.tar.gz ll hadoop-2.7.3
vi /home/mfz/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
配置hdfs-site.xml,添加\替換 以下
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/mfz/hadoopdata</value> <description>A base for other temporary directories.</description> </property> </configuration>
vi yarn-env.sh
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:18040</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:18030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:18025</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:18141</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:18088</value> </property> </configuration>
配置計算框架mapred-site.xml
cp mapred-site.xml.template mapred-site.xml vi mapred-site.xm --添加/替換 以下 <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
vi /home/mfz/hadoop-2.7.3/etc/hadoop/slaves cat /home/mfz/hadoop-2.7.3/etc/hadoop/slaves
複製到從節點(使用下面的命令將已經配置完成的Hadoop複製到從節點HadoopSlave上) (可複製到多個slave)
cd scp -r hadoop-2.7.3 slave:~/
--注意:由於以前已經配置了免密鑰登陸,這裏能夠直接遠程複製。
cd vi /etc/profile 添加以下內容 #HADOOP export HADOOP_HOME=/home/mfz/hadoop-2.7.3 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 生效配置 source /etc/profile
cd
mkdir hadoopdata
說明:(在用戶mfz主目錄下操做,此hadoopData目錄是hadoop-2.7.3/etc/hadoop/core-site.xml 中hadoop.tmp.dir 的 value)
hdfs namenode -format
cd /home/mfz/hadoop-2.7.3/ sbin/start-all.sh
在master的終端執行jps命令,在打印結果中會看到4個進程,分別是ResourceManager、Jps、NameNode和SecondaryNameNode,以下圖所示。若是出現了這4個進程表示主節點進程啓動成功。
在slave的終端執行jps命令,在打印結果中會看到3個進程,分別是NodeManager、DataNode和Jps,以下圖所示。若是出現了這3個進程表示從節點進程啓動成功。
驗證1:Web UI查看集羣是否成功啓動,在Master上啓動Firefox瀏覽器,在瀏覽器地址欄中輸入輸入http://master:50070/,檢查namenode 和datanode 是否正常。UI頁面以下圖所示。
驗證2: 在Master上啓動Firefox瀏覽器,在瀏覽器地址欄中輸入輸入http://master:18088/,檢查Yarn是否正常,頁面以下圖所示。
cd cd hadoop-2.7.3/share/hadoop/mapreduce/ hadoop jar hadoop-mapreduce-examples-2.7.3.jar pi 10 10