hadoop2.7.3在centos7安裝部署(單機版)

一.centos7.0安裝jdk html

      1.下載linux版本的jdk,下載地址https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.htmljava

       2. 上傳到centos下的/usr/local/src目錄下node

       3.把jdk解壓到/usr/local目錄下. linux

                   進入jdk所在目錄   cd /usr/local/srcapache

                  使用命令 tar -zxvf jdk-8u172-linux-i586.tar.gz centos

                  把改目錄下解壓的jdk移植到/usr/local下    mv jdk1.8.0_172/  ../oracle

       4.配置jdk的環境命令以下 ssh

             1.編輯etc/profile 編輯器

                vi /etc/profileoop

             2.添加以下內容  

                export JAVA_HOME=/usr/local/jdk1.8.0_172

                export CLASSPATH=$JAVA_HOME/lib
                export PATH=$JAVA_HOME/bin:$PATH

            3.更新etc/profile文件

                source /etc/profile

            4.輸入java 和javac驗證是否安裝成功.

 

二.Hadoop2.7.3的安裝

        0.準備工做

           0.1 修改主機名: vi /etc/hostname

           0.2 修改主機名與ip的映射

使用 vi 編輯器打開 /etc/hosts 文件
# vi /etc/hosts
在文件尾部添加內容,格式:IP地址 主機名(中間用空格分隔),保存退出
192.168.242.130 Master
設置完成後,重啓網路服務
# systemctl restart network
使用 ping 命令 ping 主機名
# ping Master

               0.3 配置ssh免密登陸

#生成ssh免密登陸的密鑰
Ssh-keygen -t rsa(四個回車)
執行完這個命令後,會生成id_rsa(私鑰) .id_rsa.pub(公鑰)將公鑰拷貝到要免密登錄的目標機器上 ssh-copy-id master

               0.4配置防火牆

         

查看防火牆狀態
firewall-cmd --state
•    1
中止firewall
systemctl stop firewalld.service
•    1
禁止firewall開機啓動
systemctl disable firewalld.service

 

        1.下載hadoop2.7.3  下載地址: https://hadoop.apache.org/releases.html

        2.把下載的hadoop上傳到centos下/usr/local/src下

        3.把上傳的hadoop進行解壓命令以下

             3.1  tar -zxvf hadoop-2.7.3.tar.gz

             3.2  mv hadoop-2.7.3 ../

        4.修改/usr/local/hadoop-2.7.3/etc/hadoop/hadoop-env.sh 文件的java環境,將java安裝路徑加進去:

           命令以下:vi /usr/local/hadoop-2.7.3/etc/hadoop/hadoop-env.sh

          修改內容以下:

            

       5.把hadoop添加到環境變量上

           vi /etc/profile

           export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3

           export PATH=$PATH:$HADOOP_HOME/bin

           更新etc/profile文件

           source /etc/profile

      6.修改vi /usr/local/hadoop2.7.3/etc/hadoop/core-site.xml 文件,

        

<configuration>
   <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
   </property>
   <property>
       <name>hadoop.tmp.dir</name>
<!--建立指定的目錄--> <value>/usr/hadoop/tmp</value> </property> </configuration>

 

     7.修改vi /usr/local/hadoop2.7.3/etc/hadoop/hdfs-site.xml 

    <property>        
    <name>dfs.name.dir</name>        
    <value>/usr/hadoop/hdfs/name</value>        
    <description>namenode上存儲hdfs名字空間元數據 </description>     
    </property>     
   <property>        
    <name>dfs.data.dir</name>        
    <value>/usr/hadoop/hdfs/data</value>        
    <description>datanode上數據塊的物理存儲位置</description>    
    </property>     
     <!-- 設置hdfs副本數量 -->    
   <property>        
     <name>dfs.replication</name>        
       <value>1</value>    
    </property>

 

 

8.修改 mapred-site.xml
hadoop只有 mapred-site.xml.template沒有mapred-site.xml,須要複製一個
 mv mapred-site.xml.template   mapred-site.xml
 vi   mapred-site.xml

     

<!-- 指定mr運行在yarn上 -->
         <property>
                        <name>mapreduce.framework.name</name>
                        <value>yarn</value>
        </property>

9.修改yarn-site.xml

<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>ykq4</value>
   </property>
<!-- reducer獲取數據的方式 -->
     <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
      </property>

10.預格式化namenode

hadoop  namenode -format

11.啓動

啓動 HDFS

start-dfs.sh

啓動YARN

start-yarn.sh

驗證是否啓動成功

[root@zhiyou01 sbin]# jps
3297 NodeManager
2866 SecondaryNameNode
2596 NameNode
3017 ResourceManager
2714 DataNode
3404 Jps
相關文章
相關標籤/搜索