hadoop(cdh版)下載安裝即配置

  1. 下載hadoop壓縮包,這裏下載的是5.14.2版本(地址:http://archive.cloudera.com/cdh5/cdh/5/
    hadoop(cdh版)下載安裝即配置

hadoop(cdh版)下載安裝即配置
2.經過Xftp工具將壓縮包拉到虛擬機/opt目錄下(目錄我的隨意)
hadoop(cdh版)下載安裝即配置
3.解壓hadoop壓縮包(命令:tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz)hadoop(cdh版)下載安裝即配置
4.這裏爲了清晰,新建一個文件夾bigdata單獨存放解壓後的文件,並重命名
新建:mkdir bigdata
移動: mv hadoop-2.6.0-cdh5.14.2 ./bigdata/hadoop260hadoop(cdh版)下載安裝即配置
5.重頭:修改配置文件,移動至/etc/hadoop目錄下,ls命令,下圖中圈選的文件是本次咱們須要進行配置的hadoop(cdh版)下載安裝即配置
6.配置1:vi hadoop-env.sh修改以下位置,修改爲本身JAVA_HOME的路徑,能夠echo $JAVA_HOME查看,修改完保存退出
hadoop(cdh版)下載安裝即配置
7.配置2:vi core-site.xml修改以下位置hadoop(cdh版)下載安裝即配置
hadoop(cdh版)下載安裝即配置node

<property>
                <name>fs.defaultFS</name>
                <value>hdfs://192.168.56.109:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoopdata</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.users</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.groups</name>
                <value>*</value>
        </property>

8.配置3:vi hdfs-site.xml,和上一步同樣的標籤中加入以下代碼hadoop(cdh版)下載安裝即配置ide

<property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

9.配置4,這個文件須要本身copy,和上一步同樣的標籤中加入以下代碼
命令:cp mapred-site.xml.template mapred-site.xml
配置:vi mapred-site.xmlhadoop(cdh版)下載安裝即配置工具

<property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>

10.配置5:vi yarn-site.xml,中間有行註釋能夠刪掉直接hadoop(cdh版)下載安裝即配置oop

<property>
                <name>yarn.resourcemanager.localhost</name>
                <value>localhost</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>

11.配置六:vi /etc/profile,移動至最後,加入如下代碼hadoop(cdh版)下載安裝即配置3d

export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME

12.激活配置文件:source /etc/profile
13.格式化namenode:hdfs namenode -format
14.運行:start-all.sh,而後每一步都輸入yes
15.查看運行狀況:jps,若是能查看到以下5個進程,則表明配置運行成功,若是少哪個,就去檢查對應的配置文件hadoop(cdh版)下載安裝即配置code

相關文章
相關標籤/搜索