Hadoop徹底分佈式集羣環境搭建

1. 在Apache官網下載Hadoophtml

下載地址:http://hadoop.apache.org/releases.htmlnode

選擇對應版本的二進制文件進行下載apache

 

2.解壓配置瀏覽器

以hadoop-2.6.5.tar.gz爲例ssh

解壓文件分佈式

tar -zxvf hadoop-2.6.5.tar.gzoop

 

移動到/opt 目錄下spa

mv hadoop-2.6.5 /optcode

 

配置JDK環境變量orm

追加Hadoop的bin和sbin目錄到環境變量PATH中,這裏很少講。

使用 source命令使配置當即生效

例如:source /etc/profile

 

配置四個配置文件core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml

本例共四個主機,分別是s10,s11,s12,s13

 s10:名稱結點

s十一、s12:數據結點

s13:輔助名稱結點

 

/etc/hosts  文件配置主機映射以下:

 

core-site.xml 配置

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://s10:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.6.5/tmp</value>
    </property>
</configuration>

 

hdfs-site.xml 配置

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>s13:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/hadoop-2.6.5/hdfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/hadoop-2.6.5/hdfs/data</value>
    </property>
</configuration>

 

mapred-site.xml  配置

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property> 
</configuration>

 

yarn-site.xml  配置

<?xml version="1.0"?>

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>s10</value>
    </property>
</configuration>

 

修改  slaves  文件內容爲對應的數據結點

s11 s12

 

 

爲了保險,此處直接配置JAVA_HOME到 /opt/hadoop-2.6.5/etc/hadoop/hadoop-env.sh 中,防止出現JAVA_HOME is not set and could not be found.錯誤

hadoop-env.sh文件第一行有效代碼(不包含註釋)改成

export JAVA_HOME=/usr/soft/jdk1.8.0_181

 

 

3. 配置四臺主機 ssh 無密碼相互訪問,複製配置好的 /opt/hadoop-2.6.5 到其它三臺主機

 

快速配置四臺主機ssh無密碼訪問方法以下:

①在四臺主機上分別執行 ssh-keygen -t rsa 生成公鑰和私鑰

②把四臺主機的公鑰分別追加到s0主機~/.ssh/authorized_keys 文件中

③遠程複製 authorized_keys 文件到其它三臺主機

更多細節請參考:https://www.cnblogs.com/jonban/p/sshNoPasswordAccess.html

 

配置完成後使用 ssh 命令在每一臺主機上手動登陸一下其它三臺主機,完成第一次訪問的確認,之後就能夠直接登陸了

 

遠程複製配置好的 /opt/hadoop-2.6.5 到其它三臺主機,記得配置JDK環境變量和Hadoop環境變量,參考第2步

 

 

4. 格式化文件系統爲hdfs

hadoop namenode -format

運行結果以下:

 

5.  啓動Hadoop集羣環境

start-dfs.sh

start-yarn.sh

 

在四臺主機上分別輸入  jps  命令,查看集羣狀態,內容以下:

[root@s10 hadoop]# jps
28417 Jps
28163 ResourceManager
27907 NameNode

 

[root@s11 hadoop]# jps
27083 Jps
26875 DataNode
26972 NodeManager

 

[root@s12 hadoop]# jps
27095 Jps
26887 DataNode
26984 NodeManager

 

[root@s13 hadoop]# jps
26882 Jps
26826 SecondaryNameNode

 

符合集羣預期結果

s10:名稱結點

s十一、s12:數據結點

s13:輔助名稱結點

 

 

6.驗證

瀏覽器輸入地址:

http://192.168.32.110:8088

http://192.168.32.110:50070

這裏的IP是主機s10的IP

 

效果截圖以下,地址自動跳轉

 

 

 

 

 

 

 

 Hadoop徹底分佈式集羣環境搭建

.

相關文章
相關標籤/搜索