【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第二步)(4)

4.測試Hadoop分佈式集羣環境;

首先在經過Master節點格式化集羣的文件系統:node

輸入「Y」完成格式化:web

格式化完成之後,咱們啓動hadoop集羣分佈式

咱們在嘗試一下中止Hadoop集羣:oop

此時出現了「no datanode to stop」的錯誤,出現這種錯誤的緣由以下:測試

每次使用 「hadoop namenode -format」命令格式化文件系統的時候會出現一個新的namenodeId,而我咱們在搭建Hadoop單機僞分佈式版本的時候往咱們本身建立的tmp目錄下放了數據,如今須要把各臺機器上的「/usr/local/hadoop/hadoop-1.2.1/」下面的tmp及其子目錄的內容清空,於此同時把「/tmp」目錄下的與hadoop相關的內容都清空,最後要把咱們自定義的hdfs文件夾中的data和name文件夾中的內容清空:spa

把Slave1和Slave2中一樣的內容均刪除掉。orm

從新格式化並從新啓動集羣,此時進入Master的Web控制檯:進程

此時能夠看到Live  Nodes只有三個,這正是咱們預期的,由於咱們Master、Slave一、Slave2都設置成爲了DataNode,固然Master自己同時也是NameNode。hadoop

此時咱們經過JPS命令查看一下三臺機器中的進程信息:it

發現Hadoop集羣的各類服務都正常啓動。

至此,Hadoop集羣構建完畢。

相關文章
相關標籤/搜索