Hadoop HA 搭建

四臺機器 bei1 bei2 bei3 bei4
java


NN DN ZK ZKFC JN RM

NM(任務管理)node

bei1  Y
Y Y


bei2  Y Y Y Y Y
Y Y
bei3 
Y Y
Y
Y
bei4
Y

Y
Y

一、升級組件以及關閉防火牆c++

    yum -y updateapache

      PS: 若是使用本地yum源可省略該項bootstrap

      新開終端在升級組件的同時操做減小等待時間vim

    # service iptables stoptomcat

    # chkconfig iptables offbash

二、修改/etc/hosts文件中IP與主機映射關係 ssh

    # vi /etc/hostside

192.168.31.131 bei1

192.168.31.132 bei2

192.168.31.133 bei3

192.168.31.134 bei4

三、若是是虛擬機修改/etc/sysconfig/network-scripts/ifcfg-eth0刪除UUID和MAC地址

    # vi /etc/sysconfig/network-scripts/ifcfg-eth0

四、刪除/etc/udev/rules.d/70-persistent-net.rules 默認網卡MAC生成規則文件

    # rm -rf /etc/udev/rules.d/70-persistent-net.rules 

      PS:若是是其它NODE節點不是虛擬機克隆或者源虛擬機複製的可省略第三、4兩項

五、yum升級後重啓主機

六、準備環境

6.一、yum -y install gcc gcc-c++ autoconf automake cmake ntp rsync ssh vim

yum -y install zlib zlib-devel openssl openssl-devel pcre-devel

PS:以上一些程序可能對於hadoop並不須要但爲了之後安裝其它程序可能會用到尤爲是源碼安裝

其中重要的三個程序是必須安裝的

ssh 用於節點間通訊 我選用的是CentOS6.7的版本默認已經安裝了openssh

rsync 用於遠程同步

ntp 用於時間同步

6.二、當6.1中第一個yum安裝完成後新開終端進行NTP時間同步該項很重要

6.2.1 配置ntp啓動項

chkconfig ntpd on

6.2.2 同步時間

ntpdate ntp.sjtu.edu.cn

6.2.3 啓動ntpd服務

/etc/init.d/ntpd start

6.2.4 驗證ntp服務已經運行

pgrep ntpd

6.2.5 初始同步

ntpdate -u ntp.sjtu.edu.cn

6.2.6 確認同步成功

ntpq -p

PS:能夠一次性輸入以上命令

chkconfig ntpd on

ntpdate ntp.sjtu.edu.cn

/etc/init.d/ntpd start

pgrep ntpd

ntpdate -u ntp.sjtu.edu.cn

ntpq -p

等待6.2.1yum成功後建議重啓主機


七、安裝jdk

    7.1 將jdk考到家目錄中

    7.2 rpm -ivh jdk_xxxxxxxx.rpm

    7.3 jdk安裝目錄默認爲/usr/java/jdk1.7.0_79

    7.4 配置jdk環境變量

       # vim ~/.bash_profile

增長如下四行

export JAVA_HOME=/opt/sxt/soft/jdk1.7.0_80

export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/opt/sxt/soft/hadoop-2.5.1

export PATH=$PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin

編輯完成後使用source命令使文件~/.bash_profile生效執行如下命令

source ~/.bash_profile

檢查環境變量

printenv

八、安裝tomcat (這步可省略,不過之後確定有用)

    將tomcat拷貝到/opt/sxt下解壓

        # tar -zxvf apache-tomcat-xxxxx.tar.gz

九、將Hadoop 上傳到/opt/sxt

# tar -zxvf hadoop-2.5.1_x64.tar.gz

    9.1 建立hadoop.tmp.dir目錄及建立

# mkdir -p /opt/hadooptmp

    9.2 etc/hadoop/core-site.xml:

<property>

     <name>fs.defaultFS</name>

     <value>hdfs://bjsxt</value>

</property>

<property>

       <name>ha.zookeeper.quorum</name>

           <value>bei1:2181,bei2:2181,bei3:2181</value>

</property>

<property>

   <name>hadoop.tmp.dir</name>

   <value>/opt/hadooptmp</value>

<!-- 臨時文件地址 -->

</property>

    9.3 etc/hadoop/hdfs-site.xml:

<property>

 <name>dfs.nameservices</name>

 <value>bjsxt</value>

</property>

<property>

 <name>dfs.ha.namenodes.bjsxt</name>

 <value>nn1,nn2</value>

</property>

<property>

 <name>dfs.namenode.rpc-address.bjsxt.nn1</name>

 <value>bei1:8020</value>

</property>

<property>

 <name>dfs.namenode.rpc-address.bjsxt.nn2</name>

 <value>bei2:8020</value>

</property>

<property>

 <name>dfs.namenode.http-address.bjsxt.nn1</name>

 <value>bei1:50070</value>

</property>

<property>

 <name>dfs.namenode.http-address.bjsxt.nn2</name>

 <value>bei2:50070</value>

</property>

<property>

 <name>dfs.namenode.shared.edits.dir</name>

 <value>qjournal://bei2:8485;bei3:8485;bei4:8485/bjsxt</value>

</property>

<property>

 <name>dfs.client.failover.proxy.provider.bjsxt</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

 <name>dfs.ha.fencing.methods</name>

 <value>sshfence</value>

</property>

<property>

 <name>dfs.ha.fencing.ssh.private-key-files</name>

 <value>/root/.ssh/id_dsa</value>

</property>

<property>

 <name>dfs.journalnode.edits.dir</name>

 <value>/opt/hadooptmp/data</value>

<!-- jn 臨時文件地址 -->

</property>

<property>

  <name>dfs.ha.automatic-failover.enabled</name>

  <value>true</value>

</property>

    9.4 克隆

    9.5 修改主機名 IP 網關 mac

修改主機名

vim /etc/sysconfig/network

修改IP地址

vi /etc/sysconfig/network-scripts/ifcfg-eth0

修改DNS

vi /etc/resolv.conf 中的search ,nameserver

十、檢查ssh本地免密碼登陸

    10.1 第一次檢查

ssh localhost

PS:遠程成功後記得exit退出

    10.2 建立本地祕鑰並將公共祕鑰寫入認證文件

# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

        # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

    10.3 再次檢查

ssh localhost

PS:一樣exit退出

    10.4 在NameNode上將~/.ssh/authorized_keys文件複製到各節點上

scp ~/.ssh/authorized_keys root@hadoopsnn:~/.ssh/authorized_keys

scp ~/.ssh/authorized_keys root@hadoopdn1:~/.ssh/authorized_keys

scp ~/.ssh/authorized_keys root@hadoopdn2:~/.ssh/authorized_keys

    10.5 編寫/opt/sxt/soft/hadoop-2.5.1/etc/hadoop/hadoop-env.sh文件默認 hadoop取不到用戶環境變量裏的JAVA_HOME因此要手動指定

vim /opt/sxt/soft/hadoop-2.5.1/etc/hadoop/hadoop-env.sh

找到export JAVA_HOME=${JAVA_HOME}

修改成export JAVA_HOME=/opt/sxt/soft/jdk1.7.0_80

增長如下一行

export HADOOP_PREFIX=/opt/sxt/soft/hadoop-2.5.1

十一、 配置安裝zookeeper

    11.1 三臺zookeeper:bei1,bei2,bei3

    11.2 編輯zoo.cfg配置文件

修改dataDir=/opt/sxt/zookeeperdatadir

 tickTime=2000

 dataDir=/opt/sxt/zookeeperdatadir

 clientPort=2181

 initLimit=5

 syncLimit=2

 server.1=bei1:2888:3888

 server.2=bei2:2888:3888

 server.3=bei3:2888:3888

    11.3 在dataDir目錄中建立一個myid的文件,文件內容爲1,2,3

十二、配置hadoop中的slaves  其中放置的是NN

*******這一步開始要認真按步驟作,若修改配置文件了,服務須要重啓*******

1三、啓動三個zookeeper:/opt/sxt/zookeeper-3.4.6/bin/zkServer.sh start

1四、啓動三個JournalNode:./hadoop-daemon.sh start journalnode

1五、在其中一個namenode上格式化:bin/hdfs namenode -format

1六、把剛剛格式化以後的元數據拷貝到另一個namenode上

16.1啓動剛剛格式化的namenode :hadoop-daemone.sh start namenode

16.2在沒有格式化的namenode上執行:hdfs namenode -bootstrapStandby

16.3啓動第二個namenode

1七、在其中一個namenode上初始化zkfc:hdfs zkfc -formatZK

1八、中止上面節點:stop-dfs.sh

1九、全面啓動:start-dfs.sh

20、登陸頁面jps檢查 登陸頁面檢查

相關文章
相關標籤/搜索