Hadoop 系列(四)—— Hadoop 開發環境搭建

1、前置條件

Hadoop 的運行依賴 JDK,須要預先安裝,安裝步驟見:java

2、配置免密登陸

Hadoop 組件之間須要基於 SSH 進行通信。node

2.1 配置映射

配置 ip 地址和主機名映射:git

vim /etc/hosts
# 文件末尾增長
192.168.43.202  hadoop001

2.2 生成公私鑰

執行下面命令行生成公匙和私匙:github

ssh-keygen -t rsa

3.3 受權

進入 ~/.ssh 目錄下,查看生成的公匙和私匙,並將公匙寫入到受權文件:shell

[root@@hadoop001 sbin]#  cd ~/.ssh
[root@@hadoop001 .ssh]# ll
-rw-------. 1 root root 1675 3 月  15 09:48 id_rsa
-rw-r--r--. 1 root root  388 3 月  15 09:48 id_rsa.pub
# 寫入公匙到受權文件
[root@hadoop001 .ssh]# cat id_rsa.pub >> authorized_keys
[root@hadoop001 .ssh]# chmod 600 authorized_keys

3、Hadoop(HDFS)環境搭建

3.1 下載並解壓

下載 Hadoop 安裝包,這裏我下載的是 CDH 版本的,下載地址爲:http://archive.cloudera.com/c...vim

# 解壓
tar -zvxf hadoop-2.6.0-cdh5.15.2.tar.gz

3.2 配置環境變量

# vi /etc/profile

配置環境變量:app

export HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
export  PATH=${HADOOP_HOME}/bin:$PATH

執行 source 命令,使得配置的環境變量當即生效:ssh

# source /etc/profile

3.3 修改Hadoop配置

進入 ${HADOOP_HOME}/etc/hadoop/ 目錄下,修改如下配置:oop

1. hadoop-env.sh

# JDK安裝路徑
export  JAVA_HOME=/usr/java/jdk1.8.0_201/

2. core-site.xml

<configuration>
    <property>
        <!--指定 namenode 的 hdfs 協議文件系統的通訊地址-->
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop001:8020</value>
    </property>
    <property>
        <!--指定 hadoop 存儲臨時文件的目錄-->
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>

3. hdfs-site.xml

指定副本系數和臨時文件存儲位置:大數據

<configuration>
    <property>
        <!--因爲咱們這裏搭建是單機版本,因此指定 dfs 的副本系數爲 1-->
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4. slaves

配置全部從屬節點的主機名或 IP 地址,因爲是單機版本,因此指定本機便可:

hadoop001

3.4 關閉防火牆

不關閉防火牆可能致使沒法訪問 Hadoop 的 Web UI 界面:

# 查看防火牆狀態
sudo firewall-cmd --state
# 關閉防火牆:
sudo systemctl stop firewalld.service

3.5 初始化

第一次啓動 Hadoop 時須要進行初始化,進入 ${HADOOP_HOME}/bin/ 目錄下,執行如下命令:

[root@hadoop001 bin]# ./hdfs namenode -format

3.6 啓動HDFS

進入 ${HADOOP_HOME}/sbin/ 目錄下,啓動 HDFS:

[root@hadoop001 sbin]# ./start-dfs.sh

3.7 驗證是否啓動成功

方式一:執行 jps 查看 NameNodeDataNode 服務是否已經啓動:

[root@hadoop001 hadoop-2.6.0-cdh5.15.2]# jps
9137 DataNode
9026 NameNode
9390 SecondaryNameNode

方式二:查看 Web UI 界面,端口爲 50070

https://github.com/heibaiying

4、Hadoop(YARN)環境搭建

4.1 修改配置

進入 ${HADOOP_HOME}/etc/hadoop/ 目錄下,修改如下配置:

1. mapred-site.xml

# 若是沒有mapred-site.xml,則拷貝一份樣例文件後再修改
cp mapred-site.xml.template mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

2. yarn-site.xml

<configuration>
    <property>
        <!--配置 NodeManager 上運行的附屬服務。須要配置成 mapreduce_shuffle 後才能夠在 Yarn 上運行 MapReduce 程序。-->
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

4.2 啓動服務

進入 ${HADOOP_HOME}/sbin/ 目錄下,啓動 YARN:

./start-yarn.sh

4.3 驗證是否啓動成功

方式一:執行 jps 命令查看 NodeManagerResourceManager 服務是否已經啓動:

[root@hadoop001 hadoop-2.6.0-cdh5.15.2]# jps
9137 DataNode
9026 NameNode
12294 NodeManager
12185 ResourceManager
9390 SecondaryNameNode

方式二:查看 Web UI 界面,端口號爲 8088

https://github.com/heibaiying

更多大數據系列文章能夠參見 GitHub 開源項目大數據入門指南
相關文章
相關標籤/搜索