hbase ha
- HA
- 準備工做 登錄 master1 > wget http://archive.apache.org/dist/hbase/hbase-0.98.8/hbase-0.98.8-hadoop2-bin.tar.gz > tar zxvf hbase...
- 修改配置 > cd hbase.../conf
- vi hbase-env.sh 在後面追加 #JDK export JAVA_HOME=/usr/java/jdk1.7.0_05 #hbase目錄 export HBASE_HOME=/.../hbase-... #hadoop目錄 export HADOOP_HOME=/.../hadoop-... export PATH=$PATH:/.../hbase-.../bin #是否使用默認的zookeeper export HBASE_MANAGES_ZK=false
- vi hbase-site.xml <configuration> <property> <name>hbase.rootdir</name>r <value>hdfs://{hadoop-cluster-name}:9000/hbase</value> //必須與你的hadoop主機名,端口號一致;Hbase該項並不識別機器IP,只能使用機器hostname才行 </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>{zookeeper-node},{zookeeper-node},{zookeeper-node}</value>
</property> <property> <name>hbase.master</name> <value>60000</value> </property> <property> <name>zookeeper.session.timeout</name> <value>60000</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> //必須與zookeeper的配置文件zoo.cfg裏的配置項clientport一致 </property> </configuration>
- vi regionservers 加入 數據處理節點,和 hadoop datanode 數據節點對應
- 將hbase 發送到 其它節點
- 啓動
- master1 > ./start-hbase.sh
- master2 > ./hbase-daemon.sh start master
歡迎關注本站公眾號,獲取更多信息