【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第二步)(3)

首先修改Master的core-site.xml文件,此時的文件內容是:web

咱們把「localhost」域名修改成「Master」:oop

一樣的操做分別打開Slave1和Slave2節點core-site.xml,把「localhost」域名修改成「Master」。spa

其次修改Master、Slave一、Slave2的mapred-site.xml文件.orm

進入Master節點的mapred-site.xml文件把「localhost」域名修改成「Master」,保存退出。xml

同理,打開Slave1和Slave2節點mapred-site.xml,把「localhost」域名修改成「Master」,保存退出。hadoop

最後修改Master、Slave一、Slave2的hdfs-site.xml文件:域名

咱們把三臺機器上的「dfs.replication」值由1改成3,這樣咱們的數據就會有3份副本:it

保存退出。io

Step 4:修改兩臺機器中hadoop配置文件的masters和slaves文件ast

首先修改Master的masters文件:

進入文件:

把「localhost」改成「Master」:

保存退出。

修改Master的slaves文件,

進入該文件:

具體修改成:

保存退出。

從上面的配置能夠看出咱們把Master即做爲主節點,又做爲數據處理節點,這是考慮咱們數據的3份副本而而咱們的機器臺數有限所致。

把Master配置的masters和slaves文件分別拷貝到Slave1和Slave2的Hadoop安裝目錄下的conf文件夾下:

進入Slave1或者Slave2節點檢查masters和slaves文件的內容:

發現拷貝徹底正確。

至此Hadoop的集羣環境終於配置完成!

相關文章
相關標籤/搜索