首先是基於僞分佈的安裝:node
http://my.oschina.net/repine/blog/267698 安全
若是你還不會,我想說:不太可能,加油!do it 負載均衡
(1)執行命令hostname cloud4 修改會話中的hostnamessh
(2)驗證:執行命令hostnameoop
(3)執行命令vi /etc/sysconfig/network 修改文件中的hostnamespa
(4)驗證:執行命令reboot -h now 重啓機器.net
(1)執行命令vi /etc/hostsorm
在文本最後增長一行192.168.80.101 cloud41blog
(2)驗證:ping cloud4遞歸
(3)在window中配置:主機名對應的ip
C:\Windows\System32\drivers\etc\hosts
新建就要配置
//(1)執行命令ssh-keygen -t rsa (而後一路Enter) 產生祕鑰位於/root/.ssh/
//(2)執行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys 產生受權文件
//(3)驗證:ssh localhost
若是克隆的直接下一步:
判斷本系統是否密碼配置成功:
ssh cloud4 (ssh 主機名)
(主節點把密碼傳到從節點)
ssh-copy-id -i cloud41
轉到從節點
ssh cloud41
(從節點把密碼傳到主節點)
ssh-copy-id -i cloud4
(-r遞歸)
scp -r /usr/local/jdk cloud41:/usr/local
scp -r /usr/local/hadoop cloud41:/usr/local
scp /etc/profile cloud41:/etc
source /etc/profile 配置文件生效
子節點能夠是--------Slaves內容以下:
localhost(可要可不要,判斷要不要主節點存放數據,通常dataNode放在從節點中)
cloud41,cloud42
hadoop namenode –format
start-all.sh
[root@cloud41 ~]# jps
4020 NameNode
4353 JobTracker
4466 TaskTracker
4508 Jps
4275 SecondaryNameNode
4154 DataNode
[root@cloud41 ~]# jps
3286 TaskTracker
3352 Jps
3194 DataNode
hadoop/bin
hadoop-daemon.sh start datanode
hadoop-daemon.sh start tasktracker
hadoop dfsadmin –refreshNodes
hadoop/bin
(可選)在主節點上執行負載均衡命令 start-balance.sh
hadoop fs -setrep 2 /hello
hadoop dfsadmin -safemode leave|enter|get (leave表示關閉安全模式)