【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第二步)(1)

  1. 在VMWare 中準備第2、第三臺運行Ubuntu系統的機器;

 

在VMWare中構建第2、三臺運行Ubuntu的機器和構建第一臺機器徹底同樣,再次不在贅述。。web

與安裝第一臺Ubuntu機器不一樣的幾點是:分佈式

第一點:咱們把第2、三臺Ubuntu機器命名爲了Slave一、Slave2,以下圖所示:oop

建立完的VMware中就有三臺虛擬機了:spa

第二點:爲了簡化Hadoop的配置,保持最小化的Hadoop集羣,在構建第2、三臺機器的時候使用相同的root超級用戶的方式登陸系統。orm

 

2.按照配置僞分佈式模式的方式配置新建立運行Ubuntu系統的機器;

按照配置僞分佈式模式的方式配置新建立運行Ubuntu系統的機器和配置第一臺機器徹底相同, ip

      下圖是家林徹底安裝好後的截圖:虛擬機

3.  配置Hadoop分佈式集羣環境

根據前面的配置,咱們如今已經有三臺運行在VMware中裝有Ubuntu系統的機器,分別是:Master、Slave一、Slave2;it

下面開始配置Hadoop分佈式集羣環境:ast

Step 1:在/etc/hostname中修改主機名並在/etc/hosts中配置主機名和IP地址的對應關係:import

咱們把Master這臺機器做爲Hadoop的主節點,首先看一下Master這臺機器的IP地址:

能夠看到當前主機的ip地址是「192.168.184.133」.

咱們在/etc/hostname中修改主機名:

進入配置文件:


能夠看到按照咱們裝Ubuntu系統時候的默認名稱,配置文件中的機器的名稱是」 rocky-virtual-machine」,咱們把」 rocky-virtual-machine」改成「Master」做爲Hadoop分佈式集羣環境的主節點:

保存退出。此時使用如下命令查看當前主機的主機名:

發現修改的主機名沒有生效,爲使得新修改的主機名生效,咱們從新啓動系統後再次查看主機名:

發現咱們的主機名成爲了修改後的「Master」,代表修改爲功。

打開在/etc/hosts 文件:

此時咱們發現文件中只有Ubuntu系統的原始ip(127.0.0.1)地址和主機名(localhost)的對應關係:

咱們在/etc/hosts中配置主機名和IP地址的對應關係:

修改以後保存退出。

 

接下來咱們使用「ping」命令看一下主機名和IP地址只見的轉換關係是否正確:

能夠看到此時咱們的主機「Master」對應的IP地址是「192.168.184.133」,這代表咱們的配置和運行都是正確的。

相關文章
相關標籤/搜索