大數據之Hadoop平臺(二)Centos6.5(64bit)Hadoop2.5.1僞分佈式安裝記錄,wordcount運行測試

注意:如下安裝步驟在Centos6.5操做系統中進行,安裝步驟一樣適於其餘操做系統,若有同窗使用Ubuntu等其餘Linux操做系統,只需注意個別命令略有不一樣。html

注意一下不一樣用戶權限的操做,好比關閉防火牆,須要用root權限。java

單節點的hadoop安裝出現的問題會在以下幾個方面:JDK環境的配置、防火牆是否關閉、root用戶和hadoop用戶的不一樣操做等。node

在搭建的過程當中細心一點,按照下面的步驟作,基本不會有什麼問題的。linux

1、準備工做(root用戶)

1.關閉防火牆

關閉防火牆:service iptables stop
關閉開機啓動:chkconfig iptables off

2.建立用戶

建立hadoop用戶:useradd hadoop
密碼:passwd hadoop
加入sudoers:vim /etc/sudoers ,在root下一行寫入hadoop  ALL=(ALL)       ALL

3.修改hosts文件

/etc/hosts文件最後一行加入:vim

127.0.0.1		hadoop

2、安裝JDK1.8root用戶


1.查看已裝JDK

rpm -qa |grep java
rpm -qa |grep jdk


2.卸載上一步顯示的程序

rpm -e --nodeps  程序名 					
(如:rpm -e --nodeps tzdata-java-2013g-1.el6.noarch
rpm -e --nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64)

3.安裝JDK1.8

rpm -ivh jdk-8-linux-x64.rpm  (在安裝文件所在的目錄下執行該指令,安裝前可將.rpm文件放置在任意目錄,左後jdk默認安裝在/usr/java/jdk1.8.0 中)

4.修改環境變量

修改 /etc/profile文件,在文件末尾加入如下幾行:ssh

export JAVA_HOME=/usr/java/jdk1.8.0
export JRE_HOME=/usr/java/jdk1.8.0/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

5.使剛修改的環境變量生效

source /etc/profile

6.驗證JDK是否安裝成功

java -version
echo $JAVA_HOME



3、SSH無密碼登陸(hadoop用戶)

1.生成密鑰


ssh-keygen -t dsa (而後一直按回車便可,會自動生成.ssh文件夾,內有兩個文件)


2.生成authorized_keys

進入/home/hadoop/.ssh目錄oop

cat id_dsa.pub >> authorized_keys

3.authorized_keys賦予執行權限

chmod 600 authorized_keys

4.測試是否可以無密碼登陸本地

ssh localhost

若是不用再次輸入密碼,說明成功測試

4、安裝hadoophadoop用戶)


1.解壓到指定目錄(以在/home/hadoop目錄爲例)


tar -zxvf hadoop-2.5.1.tar.gz

2.配置文件

配置文件在/home/hadoop/hadoop-2.5.1/etc/hadoop/目錄下spa

2.1.core-site.xml文件

<configuration></configuration>之間加入以下內容操作系統

<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
 
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.5.1/tmp</value>
</property>


2.2.hdfs-site.xml文件

<property>
<name>dfs.namenode.name.dir</name>  
<value>/home/hadoop/hadoop-2.5.1/name</value>        
</property>        
 
<property>
<name>dfs.datanode.data.dir</name>  
<value>/home/hadoop/hadoop-2.5.1/data</value>                                                                  
</property>          
 
<property>
<name>dfs.replication</name>  
<value>1</value>
</property>


注意:/home/hadoop/hadoop-2.5.1/data/home/hadoop/hadoop-2.5.1/name這兩個目錄應該是存在的。

 

2.3.mapred-site.xml文件

<property>
<name>mapreduce.framework.name</name>  
<value>yarn</value>    
</property>

2.4.mapred-env.sh文件

export JAVA_HOME=/usr/java/jdk1.8.0
export HADOOP_MAPRED_PID_DIR=/home/hadoop/hadoop-2.5.1/tmp

2.5.hadoop-env.sh文件

export JAVA_HOME=/usr/java/jdk1.8.0
export HADOOP_PID_DIR=/home/hadoop/hadoop-2.5.1/tmp
export HADOOP_SECURE_DN_PID_DIR=/home/hadoop/hadoop-2.5.1/tmp

2.6.yarn-site.xml文件

<property>
<name>yarn.nodemanager.aux-services</name>  
<value>mapreduce_shuffle</value>    
</property>



2.將hadoop加入環境變量

sudo vim /etc/profile
加入以下兩行
export HADOOP_HOME=/home/hadoop/hadoop-2.5.1
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

5、啓動(hadoop用戶)

1.格式化namenode

hdfs namenode -format

若是成功,此時,在/home/hadoop/hadoop-2.5.1/name/中會生成current文件夾



2.啓動namenodedatanode

hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode

經過jps可以驗證是否啓動成功



3.啓動yarn

start-yarn.sh

輸入jps驗證



4.在網頁端查看

輸入IP:50070(例如:http://192.168.56.103:50070/



6、運行wordcount例子(hadoop用戶)

Wordcount例子在/home/hadoop/hadoop-2.5.1/share/hadoop/mapreduce中的hadoop-mapreduce-examples-2.5.1.jar

1.上傳本地文件至hdfs

hadoop fs -put 文件 /test (如:hadoop fs -put 1 /test是將本地的文件1上傳至hdfs中的/test目錄下)

2.運行

hadoop jar hadoop-mapreduce-examples-2.5.1.jar wordcount /test/1 /test/output/1

注意:/test/output/1必須是不存在的目錄



3.查看結果

hadoop fs -cat /test/output/1/part-r-00000
相關文章
相關標籤/搜索