點擊此處下載
html
下載後,使用 java
tar -zxvf tar包名
解壓tar包,解壓完成後有這樣一個文件出現node
須要修改的配置文件在Hadoop安裝路徑下的 etc/hadoop中shell
須要修改的文件包括apache
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_79.jdk/Contents/Home export HADOOP_CONF_DIR=/Users/FengZhen/Desktop/Hadoop/hadoop-2.8.0/etc/hadoop
在對應的位置找到這兩行配置,並修改成本機中的路徑。vim
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <!--用來指定hadoop運行時產生文件的存放目錄 本身建立--> <property> <name>hadoop.tmp.dir</name> <value>/Users/FengZhen/Desktop/Hadoop/hadoop-2.8.0/tmp</value> </property> </configuration>
<configuration> <property> <!--指定hdfs保存數據副本的數量,包括本身,默認爲3--> <!--僞分佈式模式,此值必須爲1--> <name>dfs.replication</name> <value>1</value> </property> <!--不是root用戶也能夠寫文件到hdfs--> <property> <name>dfs.permissions</name> <value>false</value> <!--關閉防火牆--> </property> </configuration>
<configuration> <property> <!--指定mapreduce運行在yarn上--> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <!--NodeManager獲取數據的方式--> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
在 .bash_profile 文件中配置Hadoop環境變量,使用vim打開該文件,進入編輯模式bash
vim ~/.bash_profile
在該文件中添加分佈式
export HADOOP_HOME=/Users/FengZhen/Desktop/Hadoop/hadoop-2.8.0 此處爲Hadoop的安裝路徑
export PATH=$PATH:$HADOOP_HOME/bin
添加完成後保存退出。oop
使用source命令使該文件中的修改當即生效spa
source ~/.bash_profile
到此全部的配置已經完成,接下來執行該命令格式化namenode
hadoop namenode -format
格式化成功以後,便可啓動Hadoop,在Hadoop安裝目錄下有個/sbin目錄,目錄下有個start-all.sh,執行該文件
./start-all.sh
啓動過程當中會須要輸入幾回密碼,輸入便可。
啓動結束後在shell輸入命令 jps 可輸出全部java進程及其pid
至此,Hadoop環境配置成功。
此時執行如下命令
hadoop fs -mkdir /testdata 在hdfs根目錄下建立一個文件夾 testdata
hadoop fs -ls / 可查看根目錄下的文件及文件夾
結束。。