hadoop入門?

相關的學習資料在這java

https://pan.baidu.com/s/1ghgYMobnode

ymw5算法

 

算是學習的總結吧,寫的簡單點ssh

這裏使用的虛擬機作實驗oop

首先須要四臺虛擬機,一臺master,三臺slave學習

安裝好後要求它們和主機兩兩之間都能ping通orm

 

配置名稱解析仍是叫什麼的,就好比說ping 另外一個主機名至關於ping它的ipxml

修改 /etc/hosts 文件,像下邊這樣blog

 

而後把上邊資料裏邊的hadoop壓縮包和jdk包都搞到四臺虛擬機中,能夠用xftp,簡單ip

而後把這兩個包都解壓縮

tar.gz 用命令: tar -zxvf  filename.tar.gz

rpm 用命令:rpm -ivh filename.rpm

-後邊的字母都有特殊的含義,用--help查看吧

直接安裝都在 /usr/local/目錄下能找到

而後在 /usr/local/hadoop/etc/hadoop/目錄下修改配置文件,hadoop主要的配置文件都在這

首先修改hadoop-env.sh文件中的java_home路徑,以下圖

而後修改core-site.xml文件,指定master即namenode所在的機器,以下圖

注意四臺機器都要進行修改!!!!

 

向另一臺機器複製文件

scp  /usr/local/test.txt  root@slave1:/usr/local/test.txt

 

完成以上配置後,就能夠單獨在每臺機器上啓動hadoop了

啓動以前,對存儲文件進行格式化?

hdfs namenode -format

單獨啓動hadoop:

hadoop-daemon.sh start namenode  存儲文件系統元數據(文件目錄結構、分塊狀況、每塊位置、權限等)存在內存中

hadoop-daemon.sh start datanode

 

下面講如何配置master到slave的免密ssh登陸:

使用start-dfs.sh命令能夠啓動全部其餘機器的hadoop

修改master上的slaves文件,添加datanode信息,以下圖

 可是這樣須要輸入不少密碼,還會默認啓動SecondaryNameNode

進入 /root/.ssh

使用命令 ssh-keygen -t rsa

默認直接回車

會用rsa算法生成私鑰id_rsa和公鑰id_rsa.pub

使用命令 ssh-copy-id slave1, 會要求輸入slave的密碼

還要給master拷貝一份

傳完後再使用start-dfs.sh,就不用密碼了

就是這樣

相關文章
相關標籤/搜索