2.經過Xftp工具將壓縮包拉到虛擬機/opt目錄下(目錄我的隨意)
3.解壓hadoop壓縮包(命令:tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz)
4.這裏爲了清晰,新建一個文件夾bigdata單獨存放解壓後的文件,並重命名
新建:mkdir bigdata
移動: mv hadoop-2.6.0-cdh5.14.2 ./bigdata/hadoop260
5.重頭:修改配置文件,移動至/etc/hadoop目錄下,ls命令,下圖中圈選的文件是本次咱們須要進行配置的
6.配置1:vi hadoop-env.sh修改以下位置,修改爲本身JAVA_HOME的路徑,能夠echo $JAVA_HOME查看,修改完保存退出
7.配置2:vi core-site.xml修改以下位置
node
<property> <name>fs.defaultFS</name> <value>hdfs://192.168.56.109:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoopdata</value> </property> <property> <name>hadoop.proxyuser.root.users</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>
8.配置3:vi hdfs-site.xml,和上一步同樣的標籤中加入以下代碼ide
<property> <name>dfs.replication</name> <value>1</value> </property>
9.配置4,這個文件須要本身copy,和上一步同樣的標籤中加入以下代碼
命令:cp mapred-site.xml.template mapred-site.xml
配置:vi mapred-site.xml工具
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
10.配置5:vi yarn-site.xml,中間有行註釋能夠刪掉直接oop
<property> <name>yarn.resourcemanager.localhost</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
11.配置六:vi /etc/profile,移動至最後,加入如下代碼3d
export HADOOP_HOME=/opt/bigdata/hadoop260 export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin export HADOOP_INSTALL=$HADOOP_HOME
12.激活配置文件:source /etc/profile
13.格式化namenode:hdfs namenode -format
14.運行:start-all.sh,而後每一步都輸入yes
15.查看運行狀況:jps,若是能查看到以下5個進程,則表明配置運行成功,若是少哪個,就去檢查對應的配置文件code