第九章 搭建Hadoop 2.2.0版本HDFS的HA配置

     Hadoop中的NameNode比如是人的心臟,很是重要,絕對不能夠中止工做。在hadoop1時代,只有一個NameNode。若是該 NameNode數據丟失或者不能工做,那麼整個集羣就不能恢復了。這是hadoop1中的單點問題,也是hadoop1不可靠的表現。hadoop2就 解決了這個問題。html

     hadoop2.2.0中HDFS的高可靠指的是能夠同時啓動2個NameNode。其中一個處於工做狀態,另外一個處於隨時待命狀態。這樣,當一個 NameNode所在的服務器宕機時,能夠在數據不丟失的狀況下,手工或者自動切換到另外一個NameNode提供服務。這些NameNode之間經過共享 數據,保證數據的狀態一致。多個NameNode之間共享數據,能夠經過Nnetwork File System或者Quorum Journal Node。前者是經過linux共享的文件系統,屬於操做系統的配置;後者是hadoop自身的東西,屬於軟件的配置。咱們這裏講述使用Quorum Journal Node的配置方式,方式是手工切換。java

集羣啓動時,能夠同時啓動2個NameNode。這些NameNode只有一個是active的,另外一個屬於standby狀態。active狀態意味着提供服務,standby狀態意味着處於休眠狀態,只進行數據同步,時刻準備着提供服務node

   架構linux

在一個典型的HA集羣中,每一個NameNode是一臺獨立的服務器。在任一時刻,只有一個NameNode處於active狀態,另外一個處於 standby狀態。其中,active狀態的NameNode負責全部的客戶端操做,standby狀態的NameNode處於從屬地位,維護着數據狀 態,隨時準備切換。web

兩個NameNode爲了數據同步,會經過一組稱做JournalNodes的獨立進程進行相互通訊。當active狀態的NameNode的命名 空間有任何修改時,會告知大部分的JournalNodes進程。standby狀態的NameNode有能力讀取JNs中的變動信息,而且一直監控 edit log的變化,把變化應用於本身的命名空間。standby能夠確保在集羣出錯時,命名空間狀態已經徹底同步了shell

爲了確保快速切換,standby狀態的NameNode有必要知道集羣中全部數據塊的位置。爲了作到這點,全部的datanodes必須配置兩個NameNode的地址,發送數據塊位置信息和心跳給他們兩個。數據庫

對於HA集羣而言,確保同一時刻只有一個NameNode處於active狀態是相當重要的。不然,兩個NameNode的數據狀態就會產生分歧,可能丟失數據,或者產生錯誤的結果。爲了保證這點,JNs必須確保同一時刻只有一個NameNode能夠向本身寫數據。apache

 

下面主要給你們說下搭建Hadoop 2.2.0版本HDFS的HA配置bootstrap

 

                                                           安裝配置jdk,SSHubuntu

一.首先,先搭建五臺小集羣,虛擬機的話,建立五個

下面爲這五臺機器分別分配IP地址及相應的角色:集羣有個特色,三五機子用戶名最好一致,要不你就建立一個組,把這些用戶放到組裏面去,我這五臺的用戶名都是hadoop,主機名隨意起

 192.168.0.25-----namenode1(主機),主機namenode,zookeeper,journalnode,zkfc----namenode1(主機名)

 192.168.0.26-----namenode2(從機),備機namenode,zookeeper,journalnode,zkfc-----namenode2(主機名)

 192.168.0.27-----datanode(從機),datanode,zookeeper,journalnode-----datanode(主機名)

 192.168.0.28-----datanode2(從機),datanode,zookeeper,journalnode-----datanode2(主機名)

 192.168.0.29-----datanode3(從機),datanode,zookeeper,journalnode-----datanode3(主機名)

 若是用戶名不一致,你就要建立一個用戶組,把用戶放到用戶組下面:

 sudo addgroup hadoop     建立hadoop用戶組

 sudo adduser -ingroup hadoop one  建立一個one用戶,歸到hadoop組下

 二.因爲用戶是普通用戶,沒有root一些權限,因此修改hadoop用戶權限

 用root權限,修改sudoers文件

 nano    /etc/sudoers   打開文件,修改hadoop用戶權限,若是你建立的是one用戶,就one ALL=(ALL:ALL) ALL

三.在這五臺機子上分別設置/etc/hosts及/etc/hostname

hosts這個文件用於定於主機名與IP地址之間的對用關係

sudo -i  獲取最高權限

nano /etc/hosts:

 

 ctrl+o:保存,而後回車,ctrl+x:退出

hostname 這個文件用於定義主機名的,

注意:主機是主機名,從機就是從機名,例如:datanode在這裏就是datanode 

而後你能夠輸入:ping namenode2,看能不能ping通

 四.要在這五臺機子上均安裝jdk,ssh,並配置好環境變量,五臺機子都是這個操做::

作好準備工做,下載jdk-7u3-linux-i586.tar 這個軟件包

1.sudo apt-get install openssh-server    下載SSH

   ssh     查看,表明安裝成功

 2.  tar zxvf jdk-7u3-linux-i586.tar.gz 解壓jdk

 3.sudo nano /etc/profile,在最下面加入這幾句話,保存,這是配置java環境變量

4.source  /etc/profile  使其配置生效

 驗證jdk是否安裝成功,敲命令

5.java -version     能夠看到JDK版本信息,表明安裝成功

 

 6:配置SSH  免密碼登錄,記住,這是在hadoop用戶下執行的

ssh-keygen   -t     rsa       以後一路回 車(產生祕鑰,會自動產生一個.ssh文件

  8.cd   .ssh  進入ssh文件

    cp  id_rsa.pub   authorized_keys   把id_rsa.pub 追加到受權的 key 裏面去

 9. ssh localhost     此時已經能夠進行ssh localhost的無密碼登錄

或者 ls  .ssh/      看看有沒有那幾個文件

 

10.拷貝id_rsa.pub文件到其餘機器

 

 192.168.0.25  操做:

scp  .ssh/id_rsa.pub   192.168.0.26:/home/hadoop/.ssh/25.pub

scp  .ssh/id_rsa.pub   192.168.0.27:/home/hadoop/.ssh/25.pub

scp  .ssh/id_rsa.pub   192.168.0.28:/home/hadoop/.ssh/25.pub

scp  .ssh/id_rsa.pub   192.168.0.29:/home/hadoop/.ssh/25.pub

 192.168.0.26  操做:

scp  .ssh/id_rsa.pub 192.168.0.25:/home/hadoop/.ssh/26.pub

scp  .ssh/id_rsa.pub 192.168.0.27:/home/hadoop/.ssh/26.pub

scp  .ssh/id_rsa.pub 192.168.0.28:/home/hadoop/.ssh/26.pub

scp  .ssh/id_rsa.pub 192.168.0.29:/home/hadoop/.ssh/26.pub

 192.168.0.27  操做:

scp  .ssh/id_rsa.pub 192.168.0.25:/home/hadoop/.ssh/27.pub

scp  .ssh/id_rsa.pub 192.168.0.26:/home/hadoop/.ssh/27.pub

scp  .ssh/id_rsa.pub 192.168.0.28:/home/hadoop/.ssh/27.pub

scp  .ssh/id_rsa.pub 192.168.0.29:/home/hadoop/.ssh/27.pub

 192.168.0.28  操做:

scp  .ssh/id_rsa.pub 192.168.0.25:/home/hadoop/.ssh/28.pub

scp  .ssh/id_rsa.pub 192.168.0.26:/home/hadoop/.ssh/28.pub

scp  .ssh/id_rsa.pub 192.168.0.27:/home/hadoop/.ssh/28.pub

scp  .ssh/id_rsa.pub 192.168.0.29:/home/hadoop/.ssh/28.pub

 

 192.168.0.29  操做:

scp  .ssh/id_rsa.pub 192.168.0.25:/home/hadoop/.ssh/29.pub

scp  .ssh/id_rsa.pub 192.168.0.26:/home/hadoop/.ssh/29.pub

scp  .ssh/id_rsa.pub 192.168.0.27:/home/hadoop/.ssh/29.pub

scp  .ssh/id_rsa.pub 192.168.0.28:/home/hadoop/.ssh/29.pub

11.公鑰都追加到 那個受權文件裏

在192.168.0.25機子上操做:

cat  .ssh/26.pub >> .ssh/authorized_keys

cat  .ssh/27.pub >> .ssh/authorized_keys

cat  .ssh/28.pub >> .ssh/authorized_keys

cat  .ssh/29.pub >> .ssh/authorized_keys

在192.168.0.26機子上操做:

cat  .ssh/25.pub >> .ssh/authorized_keys

cat  .ssh/27.pub >> .ssh/authorized_keys

cat  .ssh/28.pub >> .ssh/authorized_keys

cat  .ssh/29.pub >> .ssh/authorized_keys

在192.168.0.27機子上操做:

cat  .ssh/25.pub >> .ssh/authorized_keys

cat  .ssh/26.pub >> .ssh/authorized_keys

cat  .ssh/28.pub >> .ssh/authorized_keys

cat  .ssh/29.pub >> .ssh/authorized_keys

 

驗證ssh 192.168.0.26 hostname

namenode2

 

 

                                                                                   搭建Zookeeper集羣

1.下載zookeeper-3.4.5版本:zookeeper-3.4.5.tar.gz,我是放在/home/hadoop下面

tar  zxvf  zookeeper-3.4.5.tar.gz       直接進行解壓

 2.配置etc/profile 

sudo nano  etc/profile      在末尾加入下面配置

export ZOOKEEPER_HOME=/home/hadoop/zookeeper-3.4.5 

export PATH=$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH

source /etc/profile    使其配置生效

3.配置zookeeper-3.4.5/conf/zoo.cfg文件,這個文件自己是沒有的,有個zoo_sample.cfg模板

    cd    zookeeper-3.4.5/conf      進入conf目錄

    cp  zoo_sample.cfg   zoo.cfg     拷貝模板

    sudo nano  zoo.cfg       修改zoo.cfg文件,紅色是修改部分

---------------------------------------------------------------------------------------------------

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

# do not use /tmp for storage, /tmp here is just

# example sakes.

dataDir=/home/hadoop/zookeeper-3.4.5/data

# the port at which the clients will connect

clientPort=2181

#

# Be sure to read the maintenance section of the # administrator guide before turning on autopurge.

#

# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance

#

# The number of snapshots to retain in dataDir

#autopurge.snapRetainCount=3

# Purge task interval in hours

# Set to "0" to disable auto purge feature

#autopurge.purgeInterval=1

server.1=namenode1:2888:3888

server.2=namenode2:2888:3888

server.3=datanode:2888:3888

server.4=datanode1:2888:3888

server.5=datanode2:2888:3888

------------------------------------------------------------------------------------------------------

 

注意:建立dataDir參數指定的目錄,建立data文件夾,在這個文件夾下,還要建立一個文本myid

cd  /home/hadoop/zookeeper-3.4.5

mkdir  data     建立data

cd  /home/hadoop/zookeeper-3.4.5/data     進入data文件夾下

touch  myid   建立文本myid,在這個文本內寫入1,由於server.1=namenode1:2888:3888 server指定的是1,

                  若是一會在其他機子配置,namenode2下面的myid是2,datanode下面myid是3,

                   datanode1下面myid是4,datanode下面myid是5,這些都是根據server來的

 

 

4.主機配置完之後,把zookeeper複製給其他機子

scp -r zookeeper-3.4.5  hadoop@namenode2:/home/hadoop/

scp  -r zookeeper-3.4.5  hadoop@datanode:/home/hadoop/

scp  -r zookeeper-3.4.5  hadoop@datanode1:/home/hadoop/

scp  -r zookeeper-3.4.5  hadoop@datanode2:/home/hadoop/

記住:::::修改從機的myid.從機也要配置etc/profile

 

5.啓動zookeeper,先hadoop集羣啓動

zkServer.sh  start     這個啓動是主機從機都要輸入啓動命令

 

bin/zkServer.sh  status 在不一樣的機器上使用該命令,其中二臺顯示follower,一臺顯示leader

 

 zkCli.sh  -server 192.168.0.26:2181  啓動客戶端腳本

quit   退出

help  但是查看幫助命令

這樣zookeeper集羣就配置完了

 

 

                                                                            配置hadoop集羣2.2.0版本HDFS的HA配置

1.我把hadoop文件放在 /home/hadoop路徑下,首先先進行解壓

tar  zxvf  hadoop-2.2.0.tar.gz

2.hadoop配置過程,

 

配置以前,須要在hadoop本地文件系統建立如下文件夾:

 

/dfs/name

/dfs/data

/tmp/journal

 

給這些文件要賦予權限

 

sudo chmod 777 tmp/

sudo chmod 777 dfs/

 

 這裏要涉及到的配置文件有7個:

 

~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

~/hadoop-2.2.0/etc/hadoop/yarn-env.sh

~/hadoop-2.2.0/etc/hadoop/slaves

~/hadoop-2.2.0/etc/hadoop/core-site.xml

~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml

~/hadoop-2.2.0/etc/hadoop/mapred-site.xml

~/hadoop-2.2.0/etc/hadoop/yarn-site.xml

 

以上個別文件默認不存在的,能夠複製相應的template文件得到。

 

例如mapred-site.xml不存在

 

cd /home/hadoop/hadoop-2.2.0/etc/hadoop    進入到hadoop配置文件的目錄中

cp  mapred-site.xml.template   mapred-site.xml    複製相應的模板文件

 

 3.配置hadoop-env.sh

 

sudo nano  /home/hadoop/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/home/hadoop/jdk1.7.0_03   配置jdk

 

 4.配置yarn-env.sh

 

sudo nano  /home/hadoop/hadoop-2.2.0/etc/hadoop/yarn-env.sh

export JAVA_HOME=/home/hadoop/jdk1.7.0_03   配置jdk

 

 5.配置slaves,寫入一下內容

datanode

datanode1

datanode2

 

 

6.配置core-site.xml

<configuration>
 <property>
     <name>fs.defaultFS</name>  //fs.defaultFS 客戶端鏈接HDFS時,默認的路徑前綴。跟配置hdfs-site.xml中nameservice ID的值是一致的

      <value>hdfs://mycluster</value>
  </property>
  <property>
     <name>io.file.buffer.size</name>
     <value>131072</value>
  </property>
  <property>
     <name>hadoop.tmp.dir</name>
     <value>file:/home/hadoop/tmp</value>
  </property>
  <property>
     <name>hadoop.proxyuser.hadoop.hosts</name>
     <value>*</value>
  </property>
  <property>
     <name>hadoop.proxyuser.hadoop.groups</name>
     <value>*</value>
  </property>
   <property>
     <name>ha.zookeeper.quorum</name>
     <value>192.168.0.25:2181,192.168.0.26:2181,192.168.0.27:2181,192.168.0.28:2181,192.168.0.29:2181</value>
  </property>
  <property>
     <name>ha.zookeeper.session-timeout.ms</name>
     <value>1000</value>
  </property>
</configuration>

7.配置hdfs-site.xml

<configuration>
   <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/home/hadoop/dfs/name</value>
   </property>
   <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/home/hadoop/dfs/data</value>
   </property>
   <property>
      <name>dfs.replication</name>
      <value>3</value>
   </property>
   <property>
      <name>dfs.webhdfs.enabled</name>
      <value>true</value>
   </property>
    <property>
      <name>dfs.permissions</name>
      <value>false</value>
   </property>
     <property>
      <name>dfs.permissions.enabled</name>
      <value>false</value>
   </property>
     <property>
      <name>dfs.nameservices</name>    //dfs.nameservices命名空間的邏輯名稱,若是使用HDFS Federation,能夠配置多個命名空間的名稱,使用逗號分開便可。
      <value>mycluster</value>     
   </property>
     <property>
      <name>dfs.ha.namenodes.mycluster</name>  //dfs.ha.namenodes.[nameservice ID] 命名空間中全部NameNode的惟一標示名稱。能夠配置多個,

        <value>nn1,nn2</value>                               //  使用逗號分隔。該名稱是可讓DataNode知道每一個集羣的全部NameNode。當前,每一個集羣最多隻能配置兩個NameNode。
     </property>
     <property>
      <name>dfs.namenode.rpc-address.mycluster.nn1</name>    //dfs.namenode.rpc-address.[nameservice ID].[name node ID] 每一個namenode監聽的RPC地址
      <value>192.168.0.25:9000</value>
   </property>
     <property>
      <name>dfs.namenode.rpc-address.mycluster.nn2</name>
      <value>192.168.0.26:9000</value>
   </property>
     <property>
      <name>dfs.namenode.servicerpc-address.mycluster.nn1</name>
      <value>192.168.0.25:53310</value>
   </property>
     <property>
      <name>dfs.namenode.servicerpc-address.mycluster.nn2</name>
      <value>192.168.0.26:53310</value>
   </property>
     <property>
      <name>dfs.namenode.http-address.mycluster.nn1</name>   //dfs.namenode.http-address.[nameservice ID].[name node ID] 每一個namenode監聽的http地址。
      <value>192.168.0.25:50070</value>
    </property>
     <property>
      <name>dfs.namenode.http-address.mycluster.nn2</name>
      <value>192.168.0.26:50070</value>
   </property>
     <property>
      <name>dfs.namenode.shared.edits.dir</name>    
      <value>qjournal://192.168.0.25:8485;192.168.0.26:8485;192.168.0.27:8485/mycluster</value>

         //dfs.namenode.shared.edits.dir 這是NameNode讀寫JNs組的uri。經過這個uri,NameNodes能夠讀寫edit log內容。URI的格 式"qjournal://host1:port1;host2:port2;host3:port3/journalId"。這裏的host一、host二、host3指的是Journal Node的地址,這裏必須是奇數個,至少3個;其中journalId是集羣的惟一標識符,對於多個聯邦命名空間,也使用同一個journalId。
    </property>
     <property>
      <name>dfs.client.failover.proxy.provider.mycluster</name>  //dfs.client.failover.proxy.provider.[nameservice ID] 這裏配置HDFS客戶端鏈接到Active NameNode
      <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

     </property>
     <property>
      <name>dfs.ha.fencing.methods</name> //dfs.ha.fencing.methods 配置active namenode出錯時的處理類

      <value>sshfence</value>
   </property>
     <property>
      <name>dfs.ha.fencing.ssh.private-key-files</name>
      <value>/home/hadoop/.ssh/id_rsa</value>
   </property>
   <property>
      <name>dfs.ha.fencing.ssh.connect-timeout</name>
      <value>30000</value>
   </property>
     <property>
      <name>dfs.journalnode.edits.dir</name> //dfs.journalnode.edits.dir 這是JournalNode進程保持邏輯狀態的路徑。

       <value>/home/hadoop/tmp/journal</value>
   </property>
   <property>
      <name>dfs.ha.automatic-failover.enabled</name>
      <value>true</value>
   </property>
     <property>
      <name>ha.failover-controller.cli-check.rpc-timeout.ms</name>
      <value>60000</value>
   </property>
    <property>
      <name>ipc.client.connect.timeout</name>
      <value>60000</value>
   </property>
     <property>
      <name>dfs.image.transfer.bandwidthPerSec</name>
      <value>4194304</value>
   </property>

</configuration>
8.配置mapred-site.xml

 <configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  </configuration>

9.配置yarn-site.xml

 <configuration>
<property>

<name>yarn.resourcemanager.connect.retry-interval.ms</name>

<value>2000</value>

</property>

<property>

<name>yarn.resourcemanager.ha.enabled</name>

<value>true</value>

</property>

<property>

<name>yarn.resourcemanager.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

<property>

<name>yarn.resourcemanager.ha.rm-ids</name>

<value>rm1,rm2</value>

</property>

<property>

<name>yarn.resourcemanager.ha.id</name>

<value>rm1</value> <!—註釋, rm1上配置爲rm1, rm2上配置rm2-->

</property>

<property>

<name>yarn.resourcemanager.store.class</name>

<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>

</property>

<property>

<name>yarn.resourcemanager.zk.state-store.address</name>

<value>namenode1:2181</value>

</property>

<property>

<name>ha.zookeeper.quorum</name>

<value>namenode1:2181</value>

</property>

<property>

<name>yarn.resourcemanager.recovery.enabled</name>

<value>true</value>

</property>

<property>

<name>yarn.app.mapreduce.am.scheduler.connection.wait.interval-ms</name>

<value>5000</value>

</property>

<!-- RM1 configs -->

<property>

<name>yarn.resourcemanager.address.rm1</name>

<value>namenode1:23140</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address.rm1</name>

<value>namenode1:23130</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address.rm1</name>

<value>namenode1:23188</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address.rm1</name>

<value>namenode1:23125</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address.rm1</name>

<value>namenode1:23141</value>

</property>

<property>

<name>yarn.resourcemanager.ha.admin.address.rm1</name>

<value>namenode1:23142</value>

</property>

<!-- RM2 configs -->

<property>

<name>yarn.resourcemanager.address.rm2</name>

<value>namenode2:23140</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address.rm2</name>

<value>namenode2:23130</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address.rm2</name>

<value>namenode2:23188</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address.rm2</name>

<value>namenode2:23125</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address.rm2</name>

<value>namenode2:23141</value>

</property>

<property>

<name>yarn.resourcemanager.ha.admin.address.rm2</name>

<value>namenode2:23142</value>

</property>

 

<!-- Node Manager Configs -->

<property>

<description>Address where the localizer IPC is.</description>

<name>yarn.nodemanager.localizer.address</name>

<value>0.0.0.0:23344</value>

</property>

<property>

<description>NM Webapp address.</description>

<name>yarn.nodemanager.webapp.address</name>

<value>0.0.0.0:23999</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.nodemanager.local-dirs</name>

<value>/tmp/pseudo-dist/yarn/local</value>

</property>

<property>

<name>yarn.nodemanager.log-dirs</name>

<value>/tmp/pseudo-dist/yarn/log</value>

</property>

<property>

<name>mapreduce.shuffle.port</name>

<value>23080</value>

</property>

</configuration>

 master配置完之後,但是直接把hadoop文件複製到從機,這樣能夠節省時間

 命令是在hadoop用戶下進行:這個只須要在主機運行就能夠了

 scp  -r   hadoop-2.2.0 hadoop@namenode2:/home/hadoop/

 scp  -r   hadoop-2.2.0  hadoop@datanode:/home/hadoop/

 scp  -r   hadoop-2.2.0  hadoop@datanode1:/home/hadoop/

scp  -r   hadoop-2.2.0  hadoop@datanode2:/home/hadoop/

 

0、首先把各個zookeeper起來,若是zookeeper集羣尚未啓動的話。

./bin/zkServer.sh start    記住每臺機子都要啓動

 

一、而後在某一個namenode節點執行以下命令,建立命名空間

./bin/hdfs zkfc -formatZK

 

二、在每一個節點用以下命令啓日誌程序

./sbin/hadoop-daemon.sh start journalnode

 

三、在主namenode節點用./bin/hadoopnamenode -format格式化namenode和journalnode目錄

./bin/hadoop namenode -format mycluster

 

四、在主namenode節點啓動./sbin/hadoop-daemon.shstart namenode進程

./sbin/hadoop-daemon.sh start namenode

 

五、在備節點執行第一行命令,這個是把備namenode節點的目錄格式化並把元數據從主namenode節點copy過來,而且這個命令不會把journalnode目錄再格式化了!而後用第二個命令啓動備namenode進程!

./bin/hdfs namenode –bootstrapStandby

./sbin/hadoop-daemon.sh start namenode

 

六、在兩個namenode節點都執行如下命令

./sbin/hadoop-daemon.sh start zkfc

 

七、在全部datanode節點都執行如下命令啓動datanode

./sbin/hadoop-daemon.sh start datanode

 

1.4 startupphase

下次啓動的時候,就直接執行如下命令就能夠所有啓動全部進程和服務了:

可是仍是要先啓動zookeeper,啓動日誌程序,而後在所有啓動

./sbin/start-dfs.sh

 

而後訪問如下兩個地址查看啓動的兩個namenode的狀態:

http://192.168.0.25:50070/dfshealth.jsp

http://192.168.0.26:50070/dfshealth.jsp

1.5 stop phase

中止全部HDFS相關的進程服務,執行如下命令:

./sbin/stop-dfs.sh

 

1.6 測試HDFS的HA功能

在任意一臺namenode機器上經過jps命令查找到namenode的進程號,而後經過kill -9的方式殺掉進程,觀察另外一個namenode節點是否會從狀態standby變成active狀態。

hd@hd0:/opt/hadoop/apps/hadoop$ jps

1686 JournalNode

1239 QuorumPeerMain

1380 NameNode

2365 Jps

1863 DFSZKFailoverController

hd@hd0:/opt/hadoop/apps/hadoop$ kill -9 1380

而後觀察原來是standby狀態的namenode機器的zkfc日誌,若最後一行出現以下日誌,則表示切換成功:

2013-12-31 16:14:41,114 INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitioned NameNodeat hd0/192.168.0.25:53310 to active state

這時再經過命令啓動被kill掉的namenode進程

./sbin/hadoop-daemon.sh start namenode

對應進程的zkfc最後一行日誌以下:

2013-12-31 16:14:55,683 INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitioned NameNodeat hd2/192.168.0.26:53310 to standby state

 

能夠在兩臺namenode機器之間來回kill掉namenode進程以檢查HDFS的HA配置!

 

 

                                                                                                       搭建hbase集羣

 1.下載並解壓hbase-0.98.0-hadoop2-bin.tar.gz到/home/hadoop下面

 tar zxvf  hbase-0.98.0-hadoop2-bin.tar.gz

 2.修改 hbase-env.sh hbase-site.xmlregionservers 這三個配置文件以下:

 2.1修改 hbase-env.sh 

 sudo  nano  /home/hadoop/ hbase-0.98.0-hadoop2 /conf/hbase-env.sh

export JAVA_HOME=/home/hadoop/jdk1.7.0_03

export HBASE_HOME=/home/hadoop/hbase-0.98.0-hadoop2

export HADOOP_HOME=/home/hadoop/hadoop-2.2.0

export PATH=$PATH:/home/hadoop/hbase-0.98.0-hadoop2/bin

export HBASE_MANAGES_ZK=false

 注意:若是hbase想用自身的zookeeper, HBASE_MANAGES_ZK屬性變爲true.

 2.2修改 hbase-site.xml

 sudo  nano  /home/hadoop/ hbase-0.98.0-hadoop2/conf/hbase-site.xml

 

<configuration>
   <property>

      <name>hbase.rootdir</name>

      <value>hdfs://mycluster/hbase</value>      //由於是多臺master,因此hbase.roodir的值跟hadoop配置文件hdfs-site.xml中dfs.nameservices的值是同樣的

   </property>

   <property>
      <name>hbase.cluster.distributed</name>

      <value>true</value>

   </property>

   <property>

     <name>hbase.zookeeper.quorum</name>

     <value>namenode1,namenode2,datanode,datanode1,datanode2</value>

  </property>
  <property>

      <name>hbase.master.port</name>    //當定義多臺master的時候,咱們只須要提供端口號,單機配置只須要hbase.master的屬性

      <value>60000</value>

   </property>

  <property>

     <name>zookeeper.session.timeout</name>

     <value>60000</value>

   </property>

   <property>

    <name>hbase.zookeeper.property.clientPort</name>

     <value>2181</value>            //hbase.zookeeper.property.clientPort配置的這個端口號必須跟zookeeper配置的clientPort端口號一致。

   </property>
   <property>

    <name>hbase.zookeeper.property.dataDir</name>

     <value>/home/hadoop/zookeeper-3.4.5/data</value>   //hbase.zookeeper.property.dataDir配置跟zookeeperper配置的dataDir一致

   </property>

</configuration>

 

  

2.3修改 regionservers

 

sudo  nano  /home/hadoop/ hbase-0.98.0-hadoop2/conf/regionservers

寫入如下內容:

datanode

datanode1

datanode2 

  

複製hbase到從機

scp  -r   /home/hadoop/hbase-0.98.0-hadoop2 hadoop@datanode:/home/hadoop/

scp  -r   /home/hadoop/ hbase-0.98.0-hadoop2 hadoop@datanode1:/home/hadoop/

scp  -r   /home/hadoop/ hbase-0.98.0-hadoop2 hadoop@datanode2:/home/hadoop/

 

 而後啓動hbase,輸入命令,記住:必定要先啓動hadoop集羣,才能啓動hbase

 

bin/start-hbase.sh

在備節點上只用啓動hbase的節點:bin/hbase-daemon.sh start master

 

咱們也能夠經過WEB頁面來管理查看HBase數據庫。

 

  HMaster:http://192.168.0.25:60010/master.jsp

 

 

 

能夠輸入jps查看HMaster

 而後輸入以下命令進入hbase的命令行管理界面:quit  退出

 

bin/hbase shell

 

 

bin/stop-hbase.sh    關閉hbase

 

 啓動順序:zookeeper-------hadoop-------hbase

相關文章
相關標籤/搜索