HDFS分佈式文件系統

Hadoop的簡介:node

    Hadoop是apache軟件基金會的開源分佈式計算平臺hadoop集羣包括兩種角色Mater和Slave。一個HDFS集羣由一個運行於Master上的NameNode和若干個運行於Slave節點的DataNode組成。NameNode負責管理文件系統命名空間和客戶端對文件系統的訪問操做;DataNode管理存儲的數據。文件以塊形式在DataNode中存儲,假如一個塊大小設置爲50MB,塊的副本數爲3(經過設置塊的副本數來達到冗餘效果,防止單個DataNode磁盤故障後數據丟失),一個40MB的文件將被存儲在一個塊中,而後將相同的3個塊存儲在3個DataNode中實現冗餘。大文件將被切成小塊存儲。web

   本案例的目的是搭建hadoop的HDFS,經過DataNode節點的添加與刪除實現HDFS空間動態增長與減小,以及HDFS文件系統的基本管理。apache

案例環境:瀏覽器

2018-03-11_122129.png

案例實施:安全

1.準備環境ssh

在master、slave1 - 3上配置域名解析、主機名分佈式

(1)配置host解析ide

QQ圖片20180311122244.png

QQ圖片20180311122304.png

QQ圖片20180311122317.png

QQ圖片20180311122334.png

QQ圖片20180311122424.png

(2)修改各自的主機名oop

在192.168.0.11主機spa

QQ圖片20180311122458.png

QQ圖片20180311122514.png

QQ圖片20180311122528.png

在192.168.0.12主機

QQ圖片20180311122545.png

QQ圖片20180311122601.png

QQ圖片20180311122614.png

在192.168.0.13主機

QQ圖片20180311122631.png

QQ圖片20180311122647.png

QQ圖片20180311122701.png

(3)JDK安裝

QQ圖片20180311122720.png

QQ圖片20180311122735.png

QQ圖片20180311122749.png

(4)添加hadoop運行用戶

QQ圖片20180311122806.png

同理在slave1 - slave3上重複步驟(3)和步驟(4)

2.配置SSH密鑰對

要求master免密碼登陸各slave,用於開啓相應服務。

Master無密碼鏈接slave,先切換hadoop用戶,用ssh-keygen按照默認配置直接按Enter鍵生成密鑰對,經過ssh-copy-id將公鑰複製至3個slave主機中,複製過程須要輸入slave主機的hadoop用戶密碼,做用是master遠程啓動slave

QQ圖片20180311122821.png

QQ圖片20180311122835.png

QQ圖片20180311122849.png

QQ圖片20180311122905.png

3.安裝hadoop,在master和slave上設置環境變量

(1)安裝hadoop

QQ圖片20180311122919.png

QQ圖片20180311122936.png

(2)配置環境變量

QQ圖片20180311122952.png

QQ圖片20180311123007.png


(3)配置hadoop

2018-03-11_151731.png

QQ圖片20180311123036.png

QQ圖片20180311123053.png

QQ圖片20180311123106.png

2018-03-11_123154.png

QQ圖片20180311123241.png

QQ圖片20180311123256.png

QQ圖片20180311123310.png

QQ圖片20180311123324.png

QQ圖片20180311123341.png

QQ圖片20180311123353.png

QQ圖片20180311123407.png

QQ圖片20180311123420.png

各slave主機也須要安裝hadoop並設置環境變量,第三步由master經過SSH安全通道複製給各slave

QQ圖片20180311123434.png

QQ圖片20180311123453.png

QQ圖片20180311123507.png

4.使用HDFS初始化master

(1)格式化HDFS文件系統

QQ圖片20180311123521.png

QQ圖片20180311123535.png

(2)檢查新生成的目錄

QQ圖片20180311123549.png

(3)啓動hadoop羣集

啓停hadoopde的管理命令位於@HADOOP_HOME/sbin下,以start-*或stop-*開頭;單獨啓動HDFS分佈式文件系統可以使用start-dfs.sh,也能夠使用如下命令啓動整個hadoop集羣。

QQ圖片20180311123601.png


(4)驗證訪問

 經過瀏覽器查看Namenode,即master,訪問http://192.168.0.10:50070/,

能夠查看視圖統計信息和HDFS存儲信息等。

驗證以前先關閉master和全部slave的防火牆

QQ圖片20180311123619.png

QQ圖片20180311123631.png

QQ圖片20180311123643.png

QQ圖片20180311123658.png


(5)Hadoop基本命令

使用「hadoop   fs」命令能夠結合普通的文件管理命令實現不少操做,如查看、修改權限、統計、獲取幫助、建立、刪除、上傳下載文件等,更多的用法可以使用「hadoop fs -help」或「hadoop fs -usage」命令查看

QQ圖片20180311123723.png

QQ圖片20180311123735.png

QQ圖片20180311123758.png

QQ圖片20180311123810.png

QQ圖片20180311123821.png

(6)HDFS高級命令

開啓安全模式

QQ圖片20180311123834.png

複製

將本地文件複製到HDFS上

QQ圖片20180311123846.png

將HDFS上文件複製到本地

QQ圖片20180311123859.png

權限和歸屬

修改屬組

QQ圖片20180311123912.png

修改權限

QQ圖片20180311123924.png

修改全部者

QQ圖片20180311123937.png

統計顯示目錄中文件大小

QQ圖片20180311123950.png

合併文件

QQ圖片20180311124002.png

5.爲HDFS集羣添加節點

(1)slave4節點安裝jdk與hadoop,配置環境變量、添加用戶

QQ圖片20180311124029.png


QQ圖片20180311124042.png

(2)配置/etc/hosts解析,Namenode與4臺DataNode都要配置

QQ圖片20180311124053.png

QQ圖片20180311124107.png

QQ圖片20180311124124.png

QQ圖片20180311124134.png

QQ圖片20180311124145.png

QQ圖片20180311124156.png

QQ圖片20180311124209.png

QQ圖片20180311124218.png

(3)配置ssh無密碼鏈接

QQ圖片20180311124229.png

(4)在master上修改hadoop配置後,複製到其餘節點

QQ圖片20180311124241.png

QQ圖片20180311124252.png

QQ圖片20180311124303.png

QQ圖片20180311124314.png

QQ圖片20180311124325.png

QQ圖片20180311124335.png

(5)新節點啓動並平衡節點已經存儲數據

QQ圖片20180311124348.png

QQ圖片20180311124359.png

(6)查看集羣信息

QQ圖片20180311124409.png

QQ圖片20180311124427.png

6.刪除DataNode節點

(1)增長exclude配置,做用爲存放要刪除的DataNode信息

QQ圖片20180311124442.png

QQ圖片20180311124454.png

QQ圖片20180311124505.png

QQ圖片20180311124517.png

QQ圖片20180311124529.png

(2)檢查slave4的進程

QQ圖片20180311124544.png

(3)查看集羣信息

QQ圖片20180311124559.png

相關文章
相關標籤/搜索