HDFS集羣安裝部署

準備環境node

  • 三臺centos7虛擬機(Node-1,Node-2,Node-3)
  • 配置虛擬機網絡,保證三臺機器能夠互相ping通,而且和宿主機能夠互相ping通。若是僅僅是做爲虛擬機學習,能夠關閉防火牆,避免後面的RPC端口或者web端口沒法正常訪問。
  • 建立普通用戶dtouding
  • 安裝jdk環境。

安裝HDFS:web

修改配置文件:apache

  • 修改hadoop-env.sh文件,指定jdk安裝路徑。
vi /bigdata/hadoop-2.8.5/etc/hadoop/hadoop-env.sh
添加:
export JAVA_HOME=/usr/local/jdk1.8.0_181
  • 修改core-site.xml文件,指定hadoop默認的文件系統爲HDFS,並同時指定namenode爲node-1:。
vi /bigdata/hadoop-2.8.5/etc/hadoop/core-site.xml

<configuration>centos

<property>網絡

<name>fs.defaultFS</name>工具

<value>hdf://Node-1:9000/</value>oop

</property>學習

</configuration>centos7

  • 修改hdfs-site.xml文件:

##指定namenode存儲元數據的本地目錄:spa

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/bigdata/hdpdata/name</value>

</property>

##指定datanode軟件存放文件塊的本地目錄

<property>

<name>dfs.datanode.data.dir</name>

<value>/bigdata/hdpdata/data</value>

</property>

##指定sencondary namenode

<property>

<name>dfs.namenode.secondary.http-address</name>
<value>Node-2:50090</value>

</property>

</configuration>

  • 將hadoop安裝目錄拷貝到其餘兩臺機器上:

scp -r hadoop-2.8.5/ Node-2:/bigdata/

scp -r hadoop-2.8.5/ Node-3:/bigdata/

  • 編輯slaves文件,批量啓動hdfs時指定須要啓動的datanode:
vi /bigdata/hadoop-2.8.5/etc/hadoop/slaves
Node-2
Node-3

 

初始化namenode的工做目錄:

  • 在Node-1機器上,初始化namenode的元數據目錄,進入hadoop的bin目錄下,執行命令:./Hadoop namenode -format

 

有上述提示表明初始化成功。

啓動HDFS:

  • 啓動namenode,進入hadoop下的sbin目錄,執行命令:./hadoop-daemon.sh start namenode,用jps查看namenode進程是否啓動成功。
  • 啓動datanode,操做另外兩臺機器,進入hadoop下的sbin目錄,執行命令:./hadoop-daemon.sh start datanode,用jps查看datanode進程是否啓動成功
  • 批量啓動,進入sbin目錄下,執行start-dfs.sh命令

web界面訪問:

  • http://192.168.0.111:50070/
相關文章
相關標籤/搜索