hadoop集羣安裝

 

:1、安裝jdk環境(前提)java

2、安裝hadoop(hadoop-2.7.7.tar.gz)node

  1. 角色分配(3節點搭建)
c++

  node-1  NameNode  DataNode  ResourceManagershell

  node-2  DataNode  NodeManager   SecondaryNameNode編程

  node-3  DataNode  NodeManager服務器

 

  

  在三臺服務器中配置主機名映射ssh

   注意:要保證三個節點時間同步,node-1,node-2,node-3爲各個主機名,node-1爲主服務器,其他爲從服務器,可配置主服務器到從服務器之間免密登陸oop

  ssh-keygen -t rsa(四個回車)  ssh-copy-id node-2(ssh-copy-id node-3)spa

  2. 上傳並解壓hadoop-2.7.7.tar.gz(本人解壓在/usr/local/java目錄下),目錄結構以下:日誌

  

  bin:Hadoop最基本的管理腳本和使用腳本的目錄

  etcHadoop配置文件的目錄

  include對外提供的編程庫頭文件(一般用於c++程序訪問HDFS或者編寫MapReduce程序)

  lib包含了Hadoop對外提供的編程動態庫和靜態庫,與include結合使用

  libexec各個服務用的shell配置文件所在目錄,可用於配置日誌輸出,啓動參數等信息

  sbinHadoop管理腳本所在的目錄,主要包含HDFS和yarn中各種服務的啓動/關閉腳本

  shareHadoop各個模塊編譯後的jar包所在目錄

  3. 修改配置文件

    3.一、hadoop-env.sh

    

    修改此配置項,改成本機jdk的安裝路徑,本人爲/usr/local/java/jdk

    

    3.二、core-site.xml

    

    3.三、hdfs-site.xml

    

 

    3.四、mapred-site.xml

    mv mapred-site.xml.template mapred-site.xml

    

    3.五、yarn-site.xml

    

 

    3.六、slaves

    將該文件中的內容替換成三個節點的主機名

    

  4. 將hadoop添加到環境變量中

  

  5. 將配置好的hadoop文件複製到其他從節點上(本人是從node-1複製到node-2和node-3上)

  scp -r /usr/local/java/hadoop root@node-2:/usr/local/java/

  scp -r /usr/local/java/hadoop root@node-3:/usr/local/java/

  每一個服務器上添加hadoop的環境變量

 3、啓動

  首次啓動HDFS,須要在主節點(namenode)上對其進行格式化(格式化只能進行一次)  hdfs namenode -format或者hadoop namenode -format

  若是使用一鍵啓動,須要配置免密登陸和修改slaves文件

 4、UI界面

  NameNode`  訪問NameNode所在服務器的50070端口

  ResourceManager  訪問ResourceManager所在服務器的8088端口

  

 

 

相關文章
相關標籤/搜索