首先修改Master的core-site.xml文件,此時的文件內容是:web
咱們把「localhost」域名修改成「Master」:oop
一樣的操做分別打開Slave1和Slave2節點core-site.xml,把「localhost」域名修改成「Master」。spa
其次修改Master、Slave一、Slave2的mapred-site.xml文件.orm
進入Master節點的mapred-site.xml文件把「localhost」域名修改成「Master」,保存退出。xml
同理,打開Slave1和Slave2節點mapred-site.xml,把「localhost」域名修改成「Master」,保存退出。hadoop
最後修改Master、Slave一、Slave2的hdfs-site.xml文件:域名
咱們把三臺機器上的「dfs.replication」值由1改成3,這樣咱們的數據就會有3份副本:it
保存退出。io
Step 4:修改兩臺機器中hadoop配置文件的masters和slaves文件ast
首先修改Master的masters文件:
進入文件:
把「localhost」改成「Master」:
保存退出。
修改Master的slaves文件,
進入該文件:
具體修改成:
保存退出。
從上面的配置能夠看出咱們把Master即做爲主節點,又做爲數據處理節點,這是考慮咱們數據的3份副本而而咱們的機器臺數有限所致。
把Master配置的masters和slaves文件分別拷貝到Slave1和Slave2的Hadoop安裝目錄下的conf文件夾下:
進入Slave1或者Slave2節點檢查masters和slaves文件的內容:
發現拷貝徹底正確。
至此Hadoop的集羣環境終於配置完成!