You have to work very hard to believe that you are really powerless.html
Mac-搭建Hadoop集羣java
我用到了:VMware Fusion、CentOS七、FileZilla、jdk-8u181-linux-x64.tar.gz和hadoop-2.7.6.tar.gznode
一、集羣部署規劃mysql
NameNode單點部署:linux
節點名稱 | NN1 | NN2 | DN | RM | NM | 規劃IP | other |
tjt01 | NameNode | DataNode | NodeManager | 172.16.114.130 | hive/hdfs | ||
tjt02 | SecondaryNameNode | DataNode | ResourceManager | NodeManager | 172.16.114.131 | hbase/kms | |
tjt03 | DataNode | NodeManager | 172.16.114.132 | mysql/spark |
二、三臺客戶機相關準備web
2.一、安裝VMware虛擬機sql
在虛擬機中安裝CentOS鏡像,由初始安裝的CentOS7版本的鏡像,完整克隆出另外兩臺虛擬機瀏覽器
2.二、修改主機名bash
[root@tjt01 tjt]# vi /etc/hostname
分別修改三臺虛擬機主機名:tjt0一、tjt0二、tjt03服務器
2.三、修改host文件
配置主機host:
[root@tjt01 tjt]# vi /etc/hosts
將配置發送到其餘的主機,同時在其餘主機上配置:
scp -r /etc/hosts root@tjt02:/etc/ scp -r /etc/hosts root@tjt03:/etc/
測試host文件修改結果:
ping tjt01 ping tjt02 ping tjt03
2.四、設置SSH免密登陸
每兩臺主機之間設置免密碼,本身的主機與本身的主機之間也要求設置免密碼;
輸入:ssh-keygen -t rsa
而後按下四次回車,以後在把密匙發到其餘主機上,輸入:ssh-copy-id tjt01 並按提示輸入密碼,而後是ssh-copy-id 02和ssh-copy-id 03一樣的操做;
以後,在另外兩臺虛擬機上也執行相同的步驟:
ssh-keygen -t rsa ssh-copy-id tjt01 ssh-copy-id tjt02 ssh-copy-id tjt03
ssh tjt0一、ssh tjt0二、ssh tjt03
rpm -qa | grep jdk
yum remove *openjdk*
yum remove copy-jdk-configs-3.3-10.el7_5.noarch
將JDK安裝包上傳到/opt下,能夠經過XShell的rz上傳,也能夠用FileZilla:
到/opt 目錄下解壓:tar xzvf jdk-8u181-linux-x64.tar.gz
設置JAVA_HOME:
輸入:vi /etc/profile,在profile文件中的編輯模式下加上下方export配置:
export JAVA_HOME=/opt/jdk1.8.0_181 export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/sbin
複製JDK到另外兩個節點:
在這以前要先把另外兩臺虛擬機上的openjdk也幹掉:
yum remove *openjdk* yum remove copy-jdk-configs-3.3-10.el7_5.noarch
而後複製jdk到另外兩個虛擬機上:
scp -r /opt/jdk1.8.0_181 root@tjt02:/opt/ scp -r /opt/jdk1.8.0_181 root@tjt03:/opt/
向其餘節點複製profile文件:
scp /etc/profile root@tjt02:/etc/ scp /etc/profile root@tjt03:/etc/
而後每一個節點分別執行 source /etc/profile ,使profile生效下,並經過java-version簡單測試下,jdk複製是否成功:
tjt02:
tjt03:
三、安裝Hadoop
3.一、上傳並解壓Hadoop
解壓:tar zxvf hadoop-2.7.6.tar.gz
3.二、搭建Hadoop集羣
配置文件在hadoop2.7.6/etc/hadoop/下,修改設置hadoop2.7.6目錄下的可執行權限
3.2.一、修改 core-site.xml
[root@tjt01 hadoop]# vi core-site.xml
而後在core-site.xml文件中編輯以下:
<!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://tjt01:9000</value> </property> <!-- 指定hadoop運行時產生文件的存儲目錄 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop-2.7.6/data/full/tmp</value> </property>
3.2.二、修改hadoop-env.sh
[root@tjt01 hadoop]# vi hadoop-env.sh
修改JAVA_HOME:
3.2.3 修改hdfs-site.xml
[root@tjt01 hadoop]# vi hdfs-site.xml
修改 hdfs-site.xml 的配置以下:
<configuration>
<!-- 設置dfs副本數,不設置默認是3個 --> <property> <name>dfs.replication</name> <value>2</value> </property>
<!-- 設置secondname的端口 --> <property> <name>dfs.namenode.secondary.http-address</name> <value>tjt02:50090</value> </property> </configuration>
3.2.4 修改 slaves
[root@tjt01 hadoop]# vi slaves
增長slaves 配置以下:
tjt01 tjt02 tjt03
3.2.5 修改mapred-env.sh
[root@tjt01 hadoop]# vi mapred-env.sh
修改其JAVA_HOME以下:
export JAVA_HOME=/opt/jdk1.8.0_181
3.2.6 修改mapred-site.xml
[root@tjt01 hadoop]# mv mapred-site.xml.template mapred-site.xml [root@tjt01 hadoop]# vi mapred-site.xml
修改其configuration以下:
<configuration> <!-- 指定mr運行在yarn上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
3.2.7 修改yarn-env.sh
[root@tjt01 hadoop]# vi yarn-env.sh
修改其JAVA_HOME以下:
export JAVA_HOME=/opt/jdk1.8.0_181
3.2.8 修改yarn-site.xml
[root@tjt01 hadoop]# vi yarn-site.xml
修改配置以下:
<configuration> <!-- reducer獲取數據的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 指定YARN的ResourceManager的地址 -->
<property> <name>yarn.resourcemanager.hostname</name> <value>tjt02</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> <description>Whether virtual memory limits will be enforced for containers</description> </property> <property> <name>yarn.nodemanager.vmem-pmem-ratio</name> <value>4</value> <description>Ratio between virtual memory to physical memory when setting memory limits for containers</description> </property> </configuration>
3.3 分發hadoop到各個節點
[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7.6/ root@tjt02:/opt
[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7.6/ root@tjt03:/opt
3.4 配置環境變量
[root@tjt01 hadoop]# vi /etc/profile
修改配置以下:
export HADOOP_HOME=/opt/hadoop-2.7.6 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile 使profile文件生效;
[root@tjt01 hadoop]# source /etc/profile
3.5 分發profile到各個節點
[root@tjt01 hadoop]# scp /etc/profile root@tjt02:/etc/
[root@tjt01 hadoop]# scp /etc/profile root@tjt03:/etc/
到各自的服務節點上是profile 生效:
[root@tjt02 ~]# source /etc/profile
[root@tjt03 ~]# source /etc/profile
4 啓動驗證集羣
4.1 啓動集羣
[root@tjt01 hadoop]# hdfs namenode -format
當看到19/05/03 03:45:47 INFO common.Storage: Storage directory /opt/hadoop-2.7.6/data/full/tmp/dfs/name has been successfully formatted. 就格式化OK了;
[root@tjt01 hadoop-2.7.6]# start-dfs.sh
若是Namenode和ResourceManager不是同一臺虛擬機的話,不能在NameNode上啓動yarn,應該在ResourceManager所在的機器上啓動yarn;個人yarn配置在tjt02服務器上,一次須要到tjt02機器上啓動yarn
[root@tjt02 hadoop]# start-yarn.sh
[root@tjt01 hadoop]# jps
[root@tjt02 hadoop]# jps
[root@tjt03 hadoop]# jps
在虛擬機tjt01上訪問:http://172.16.114.130:50070
Datanode:
須要先在tjt3這臺機器上關閉防火牆後,才能夠在非linux服務器中的瀏覽器訪問:
//臨時關閉 systemctl stop firewalld //禁止開機啓動 systemctl disable firewalld
本機訪問:http://172.16.114.130:50070/
在虛擬機tjt02上訪問:http://172.16.114.131:8088/cluster
4.二、Hadoop中止啓動方式
1)各個服務組件逐一啓動
分別啓動hdfs 組件:
hadoop-deamon.sh start | stop namenode | datnode | secondarynamenode
啓動yarn:
yarn-deamon.sh start | stop resourcemanager | nodemanager
2) 各個模塊分開啓動(經常使用)
start | stop-dfs.sh start | stop-yarn.sh
3) 所有啓動
start | stop-all.sh
其餘
一、關閉防火牆
//臨時關閉 systemctl stop firewalld //禁止開機啓動 systemctl disable firewalld
二、建立用戶,設置文件權限
建立用戶,修改密碼:
[root@tjt01 ~]# useradd tjt [root@tjt01 ~]# passwd tjt
原文出處:https://www.cnblogs.com/taojietaoge/p/10803537.html