Windows上安裝運行Hadoop

 0.本身編譯安裝步驟在這裏,有英文版本連接:《英文傳送門》。html

本身編譯嘗試後不成功,換爲下面使用別人編譯好的版本的方法。參考博客:《初學hadoop,windows下安裝》 java

 

1.下載JDK,並設置JAVA_HOME。(使用不帶空格的路徑,好比Program Files,將在後面的配置中報錯!)node

假設JAVA_HOME路徑爲C:\Java\jdk1.8.0_73git

 

2.下載hadoop。下載地址:http://hadoop.apache.org/releases.htmlgithub

若是在當前頁中沒找到2.8.3版本,能夠到全部版本的下載列表中去找:https://archive.apache.org/dist/hadoop/common/apache

這裏下載使用的是2.8.3的二進制版本文件,解壓到d:/hadoop-2.8.3windows

 

3.下載winutils。這個是別人編譯好的hadoop的windows版本二進制文件,不須要咱們本身進行編譯。下載下來而後將hadoop-2.8.3進行!覆蓋!便可。瀏覽器

下載地址:https://github.com/steveloughran/winutils框架

 

4.在路徑D:\hadoop-2.8.3\etc\hadoop下修改文件oop

①core-site.xml(配置默認hdfs的訪問端口)

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>

②hdfs-site.xml(設置複製數爲1,即不進行復制。namenode文件路徑以及datanode數據路徑。)

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:/hadoop/data/dfs/namenode</value>    
    </property>    
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:/hadoop/data/dfs/datanode</value>  
    </property>
</configuration>

③將mapred-site.xml.template 名稱修改成 mapred-site.xml 後再修改內容(設置mr使用的框架,這裏使用yarn)

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

④yarn-site.xml(這裏yarn設置使用了mr混洗)

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

⑤hadoop-env.cmd

設置JAVA_HOME的值(若是這裏使用了帶空格的Program Files路徑將會報錯!)

set JAVA_HOME=C:\Java\jdk1.8.0_73

 

5.進入D:\hadoop-2.8.3\bin目錄,格式化hdfs

在cmd中運行命令 hdfs namenode -format

 

6.進入D:\hadoop-2.8.3\sbin目錄

在cmd中運行命令start-all.cmd

出現找不到hadoop文件的錯誤時,能夠在start-all.cmd文件上方加入hadoop文件所在位置目錄

cd D:\hadoop-2.8.3\bin

 

7.在瀏覽器地址欄中輸入:http://localhost:8088查看集羣狀態。

8.在瀏覽器地址欄中輸入:http://localhost:50070查看Hadoop狀態。

 

 

 

9.執行stop-all.cmd關閉Hadoop。

 

以上。

相關文章
相關標籤/搜索