Hadoop組件依賴圖(從下往上看)node
安裝步驟:瀏覽器
詳細步驟:ssh
設置ssh自動登陸(以下圖):分佈式
一、輸入命令 【ssh-keygen -t rsa】,而後一直按回車就能夠了oop
二、而後切換目錄到 ~ .ssh目錄下執行命令【cp id_rsa.pub authorized_keys】學習
三、這樣就完成了,而後測試測試
1) 輸入命令【ssh localhost】,而後輸入【yes】,就會登錄成功另外會看到本來的 .ssh目錄變成了 ~ 目錄spa
2) 輸入命令【exit】退出,而後仍是在之前的.ssh目錄下,這時候輸入ll會發現多了一個 known_hosts文件,顧名思義。3d
3) 而後再次輸入命令【ssh localhost】就能夠直接登陸了,固然還能夠【ssh ip地址】、【ssh 主機名】等等,只需第一次輸入【yes】,以後就能夠直接登陸了。
下面進行hadoop相關文件配置:
一、配置 hadoop 環境文件 hadoop-env.sh
1) 打開文件,找到某行有 」# export JAVA_HOME = ...」 字樣的地方,去掉 「#」 ,而後在等號後面填寫你本身的 JDK 路徑,好比像我本身的 JDK 路徑,那就改成了 以下所示
export JAVA_HOME=/opt/modules/jdk1.7.0_45
2) 配置 Hadoop 的核心文件 core-site.xml
打開文件,會發現標籤 <configuration></configuration> 中是空的,在空的地方添加以下配置
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop-master.dragon.org:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
</configuration>
二、
上面配置項是 hdfs副本數(默認爲3),下面配置項爲 是否進行權限檢查
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
三、
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop-master.dragon.org:9001</value>
</property>
</configuration>
固然下面兩個也能夠用默認配置
hadoop-master.dragon.org
hadoop-master.dragon.org
到這裏,基本就算配置完畢了
測試:
首先格式化:hadoop namenode -format
而後啓動:
初步學習安裝能夠一步一步來(在hadoop的bin目錄下)
可先啓動start-dfs.sh
而後可輸入jps觀察以下
可在瀏覽器 輸入 http://192.168.1.123:50070看到相關信息(固然也能夠輸入域名等)
而後啓動start-mapred.sh
而後可輸入jps觀察以下
可在瀏覽器 輸入 http://192.168.1.123:50030看到相關信息(固然也能夠輸入域名等)
好了,到這裏僞分佈式環境搭建就算結束了。