任務配置說明:java
VMware 15node
Centos 6.5linux
java -jdk 1.8apache
hadoop-2.6.0-cdh5.14.0.tar.gzvim
自行安裝虛擬機windows
vim /etc/sysconfig/network --(將HOSTNAME=) 改成master(主機的意思)
vim /etc/hosts --(增長一行內容 ip master)
vim /etc/sysconfig/network-scripts/ifcfg-eth0
修改內容以下:瀏覽器
DEVICE=eth0 (網卡名稱)
HWADDR=00:0C:29:63:C3:47
TYPE=Ethernet
UUID=7cce5090-6637-40fc-a47e-9f5e2d561b46
ONBOOT=yes (必須設置 設置啓動)
NM_CONTROLLED=yes
BOOTPROTO=static (靜態)
IPADDR=192.168.65.21 --(你的ip)
NETMASK=255.255.255.0 --(子網掩碼)
GATEWAY=192.168.65.1 --(網關)
DNS1=114.114.114.114 --(DNS)
關閉防火牆bash
service iptables stop --(僅一次性關閉防火牆 再次開機防火牆就從新開啓了)
chkconfig iptables off --(永久關閉防火牆 防止重啓防火牆自啓動)
配置 SSHapp
安裝 sshssh
yum install ssh
安裝 rsync
yum install rsync
啓動 SSH 服務命令
service sshd restart
檢查 ssh 是否已經安裝成功 能夠執行 rpm -qa | grep openssh
出現
[hadoop
表明成功
檢查 rsync 是否安裝成功 可執行 rpm -qa | grep rsync
出現
[hadoop
表明成功
生成 SSH 公鑰 (只能夠生成當前執行用戶的祕鑰)
ssh-keygen -t rsa --(連續回車便可)
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop(用戶名)
驗證 ssh master
安裝 Java jdk
卸載初始系統存在的jdk
檢查 是否安裝了jdk
rpm -qa | grep jdk
若是出現了返回值 那麼使用 yum -y remove xxx(將返回值輸入便可)
安裝 JDK (須要實現上傳)
tar -zxvf jdk-8u221-linux-x64.tar.gz --(解壓壓縮包)
修改環境配置文件
vim /etc/profile
文件末尾添加
#java --(註釋表明java)
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221 --(你java安裝目錄)
export PATH=$PATH:$JAVA_HOME/bin
讓配置文件修改後生效
source /etc/profile
驗證 java是否安裝成功 --(輸入java命令便可)
[hadoop@master jdk1.8.0_221]$ java
如若返回一大頁東西則安裝成功 java -version能夠查看當前java版本信息
老樣子 先解壓
tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz
修改配置文件信息
進入 hadoop 配置文件目錄 cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
修改 hadoop-env.sh 文件 末尾追加如下內容
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
修改 core-site.xml 文件
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
修改 hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/data</value>
</property>
</configuration>
修改 mapred-site.xml
能夠看到咱們目錄中沒有mapred-site.xml 咱們能夠經過模板拷貝出來一個
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
添加以下內容
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
修改 yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8080</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8082</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
修改 slaves
master
至此,Hadoop 安裝配置工做所有完成,爲了能在任何路徑下使用 Hadoop 命令,還須要配置環境變量
對 /etc/profile 追加以下信息
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
export PATH=$PATH:$HADOOP_HOME/bin
對 環境配置文件生效
[hadoop@master hadoop]$ source /etc/profile
在第一次啓動 Hadoop 以前,必須對 HDFS 格式化,執行命令
[hadoop
啓動 Hadoop
格式化 Hadoop 完成後,即可以啓動 hadoop ,不過首先咱們賦予腳本可執行權限
[hadoop
而後就能夠啓動集羣了 執行啓動腳本 --(進入hadoop的sbin腳本目錄)
[hadoop
執行腳本
[hadoop
最後檢查要啓動的節點是否正常啓動
[hadoop
至此 一切完成
咱們能夠打開瀏覽器查看咱們的HDFS
若是 linux 有瀏覽器能夠經過瀏覽器地址輸入
master:50070 --(便可訪問)
若是 想在windows訪問 打開瀏覽器
linuxip:50070
例如個人:192.168.65.21:50070
大功告成了