CentOS7搭建 Hadoop + HBase + Zookeeper集羣

摘要: 本文主要介紹搭建Hadoop、HBase、Zookeeper集羣環境的搭建
1、基礎環境準備java

一、下載安裝包(均使用當前最新的穩定版本,截止至2017年05月24日)node

1)jdk-8u131linux

下載地址:Java SE Development Kit 8web

2)hadoop-2.7.3apache

下載地址:Index of /apache/hadoop/common/hadoop-2.7.3vim

3)hbase-1.2.5bash

下載地址:Index of /apache/hbase/1.2.5app

4)zookeeper-3.4.10ssh

下載地址:Index of /apache/zookeeper/zookeeper-3.4.10webapp

二、修改hosts文件(使用的三臺集羣主機默認IP爲192.168.0.100、192.168.0.10一、192.168.0.102)

vim /etc/hosts

添加如下信息

192.168.0.100 master
192.168.0.101 slave1
192.168.0.102 slave2
三、安裝JDK

-- 解壓jdk安裝包

mkdir /usr/java

tar -zxvf jdk-8u131-linux-x64.tar.gx -C /usr/java

-- 拷貝jdk至slave1及slave2中

scp -r /usr/java slave1:/usr

scp -r /usr/java slave2:/usr

-- 設置jdk環境變量

vim /etc/environment

JAVA_HOME=/usr/java/jdk1.8.0_131
JRE_HOME=/usr/java/jdk1.8.0_131/jre

vim /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_131
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
四、設置免密登錄

slave1

ssh-keygen -t rsa

cp ~/.ssh/id_rsa.pub ~/.ssh/slave1_id_rsa.pub

scp ~/.ssh/slave1_id_rsa.pub master:~/.ssh/

slave2

ssh-keygen -t rsa

cp ~/.ssh/id_rsa.pub ~/.ssh/slave2_id_rsa.pub

scp ~/.ssh/slave2_id_rsa.pub master:~/.ssh/

master

ssh-keygen -t rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

cat ~/.ssh/slave1_id_rsa.pub >> ~/.ssh/authorized_keys

cat ~/.ssh/slave2_id_rsa.pub >> ~/.ssh/authorized_kyes

-- 拷貝文件至slave1及slave2

scp ~/.ssh/authorized_keys slave1:~/.ssh

scp ~/.ssh/authorized_keys slave2:~/.ssh

五、關閉防火牆及SELINUX

-- 關閉防火牆

systemctl stop firewalld.service

systemctl disable firewalld.service

-- 關閉SELINUX

vim /etc/selinux/config

-- 註釋掉

SELINUX=enforcing

SELINUXTYPE=targeted

-- 添加
SELINUX=disabled
2、Hadoop環境搭建

一、解壓縮安裝包及建立基本目錄

tar -zxvf hadoop-2.7.3-x64.tar.gz -C /usr

cd /usr/hadoop-2.7.3

mkdir tmp logs hdf hdf/data hdf/name

二、修改hadoop配置文件

-- 修改 slaves 文件

vim /usr/hadoop-2.7.3/etc/hadoop/slaves

-- 刪除 localhost,添加
slave1
slave2

-- 修改 core-site.xml 文件

vim /usr/hadoop-2.7.3/etc/hadoop/core-site.xml

-- 在 configuration 節點中添加如下內容

fs.default.name
hdfs://master:9000


hadoop.tmp.dir
file:/usr/hadoop-2.7.3/tmp

-- 修改 hdfs-site.xml 文件

vim /usr/hadoop-2.7.3/etc/hadoop/hdfs-site.xml

-- 在 configuration 節點添加如下內容

dfs.datanode.data.dir
/usr/hadoop-2.7.3/hdf/data
true


dfs.namenode.name.dir
/usr/hadoop-2.7.3/hdf/name
true

-- 修改 mapred-site.xml 文件

cp /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml

vim /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml

-- 在 configuration 節點添加如下內容

mapreduce.framework.name
yarn


mapreduce.jobhistory.address
master:10020


mapreduce.jobhistory.webapp.address
master:19888

-- 修改 yarn-site.xml 文件

vim /usr/hadoop-2.7.3/etc/hadoop/yarn-site.xml

-- 在 configuration 節點添加如下內容

yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.mapred.ShuffleHandler


yarn.resourcemanager.address
master:8032


yarn.resourcemanager.scheduler.address
master:8030


yarn.resourcemanager.resource-tracker.address
master:8031


yarn.resourcemanager.admin.address
master:8033


yarn.resourcemanager.webapp.address
master:8088

三、複製hadoop到slave節點

scp -r /usr/hadoop-2.7.3 slave1:/usr

scp -r /usr/hadoop-2.7.3 slave2:/usr

四、配置 master 和 slave 的 hadoop 環境變量

vim /etc/profile

-- 添加以下內容
export HADOOP_HOME=/usr/hadoop-2.7.3
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_LOG_DIR=/usr/hadoop-2.7.3/logs
export YARN_LOG_DIR=$HADOOP_LOG_DIR

-- 保存後執行

source /etc/profile

vim ~/.bashrc

-- 添加以下內容
export HADOOP_PREFIX=/usr/hadoop-2.7.3/
五、格式化 namenode

/usr/hadoop-2.7.3/sbin/hdfs namenode -format

六、啓動 hadoop

/usr/hadoop-2.7.3/sbin/start-all.sh

到這一步已經成功完成了hadoop環境的搭建

3、Zookeeper環境搭建

一、解壓縮 zookeeper 安裝包,並創建基本目錄

tar -zxvf zookeeper-3.4.10.tar.gz -C /usr

mkdir /usr/zookeeper-3.4.10/data

二、修改配置文件

-- 複製配置文件模板

cp /usr/zookeeper-3.4.10/conf/zoo-sample.cfg /usr/zookeeper-3.4.10/conf/zoo.cfg

-- 修改配置文件

vim /usr/zookeeper-3.4.10/conf/zoo.cfg

-- 添加以下內容
dataDir=/usr/zookeeper-3.4.10/data
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888

-- 建立myid文件(master、slave一、slave2均需更新)

touch /usr/zookeeper-3.4.10/data/myid

vim /usr/zookeeper-3.4.10/myid

-- 添加以下內容
1(master節點添加)
2(slave2節點添加)
3(slave3節點添加)
三、啓動zookeeper

-- master、slave一、slave2增須要執行

cd /usr/zookeeper-3.4.10/bin

./zkServer.sh start

./zkServer.sh status

到這一步完成了zookeeper環境的搭建

4、HBase環境搭建

一、解壓縮hbase安裝包

tar -zxvf hbase-1.2.5-bin.star.gz -C /usr

mkdir /usr/hbase-1.2.5-bin/logs

二、修改配置文件

vim /usr/hbase-1.2.5/conf/hbase-env.sh

-- 添加以下內容
export JAVA_HOME=/usr/java/jdk1.8.0_131
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=false
三、修改regionservers

vim /usr/hbase-1.2.5/conf/regionservers

-- 刪除localhost,新增以下內容
master
slave1
slave2
四、修改配置文件

vim /usr/hbase-1.2.5/conf/hbase-site.xml

-- 在configuration節點下添加以下內容

hbase.rootdir
hdfs://master:9000/hbase


hbase.cluster.distributed
true


hbase.zookeeper.quorum
master,slave1,slave2


hbase.zookeeper.property.dataDir
/usr/zookeeper-3.4.10/data


hbase.master
hdfs://master:60000

五、複製hbase到slave中

scp -r /usr/hbase-1.2.5 slave1:/usr

scp -r /usr/hbase-1.2.5 slave2:/usr

六、啓動hbase

/usr/hbase-1.2.5/bin/start-hbase.sh

到這一步hbase環境搭建完成

相關文章
相關標籤/搜索