java環境安裝 http://www.cnblogs.com/zeze/p/5902124.html html
java 環境安裝配置 etc/profile:java
export JAVA_HOME=/usr/jdk/jdk1.8.0_112 export JRE_HOME=/usr/jdk/jdk1.8.0_112/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$PATH
SSH安裝 http://www.linuxidc.com/Linux/2014-01/94793.htmnode
yum install openssh-server
建立ssh文件夾,在ssh文件夾下建立兩個文件id_dsa及id_dsa.pub,這是一對私鑰和公鑰,而後把id_dsa.pub(公鑰)追加到受權的key裏面去。linux
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
登錄ssh,輸入命令:apache
ssh localhost
第一次登錄可能會詢問是否繼續連接,輸入yes便可,之後登錄直接登進去。ssh
安裝hadoop2.7.3oop
下載:http://apache.fayea.com/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gzspa
tar xzvf hadoop-2.7.0.tar.gz mv hadoop-2.7.0 hadoop
一、修改hadoop2.7.3/etc/hadoop/hadoop-env.sh指定JAVA_HOMEcode
二、修改hdfs的配置文件orm
修改hadoop2.7.3/etc/hadoop/core-site.xml 以下:
<configuration> <!-- 指定HDFS老大(namenode)的通訊地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://0.0.0.0:9000</value> </property> <!-- 指定hadoop運行時產生文件的存儲路徑 --> <property> <name>hadoop.tmp.dir</name> <value>/home/xupanpan/hadoop/temp</value> </property> </configuration>
修改hadoop2.7.3/etc/hadoop/hdfs-site.xml 以下:
三、啓動與中止
第一次啓動得先格式化
/home/xupanpan/hadoop/hadoop/bin/hdfs namenode -format
啓動hdfs
/home/xupanpan/hadoop/hadoop/sbin/start-dfs.sh
預覽
http://192.168.20.225:50070/
中止hdfs
/home/xupanpan/hadoop/hadoop/sbin/stop-dfs.sh