搭建Hadoop的環境
======================================
1、準備工做
一、安裝Linux、JDK、關閉防火牆、配置主機名
解壓:tar -zxvf hadoop-2.7.3.tar.gz -C ~/traning/node
設置Hadoop的環境變量: vi ~/.bash_profilebash
HADOOP_HOME=/root/training/hadoop-2.7.3
export HADOOP_HOME框架
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH分佈式
環境變量生效
source ~/.bash_profileoop
=============== 僞分佈模式:一臺(bigdata111)
特色:是在單機上,模擬一個分佈式的環境
具有Hadoop的主要功能
HDFS: namenode+datanode+secondarynamenode
Yarn: resourcemanager + nodemanagerspa
hdfs-site.xml日誌
原則:通常數據塊的冗餘度跟數據節點(DataNode)的個數一致;最大不超過3orm
<!--表示數據塊的冗餘度,默認:3-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
先不設置
<!--是否開啓HDFS的權限檢查,默認true-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
core-site.xmlxml
<!--配置NameNode地址,9000是RPC通訊端口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata111:9000</value>
</property> blog
<!--HDFS數據保存在Linux的哪一個目錄,默認值是Linux的tmp目錄-->
<property>
<name>hadoop.tmp.dir</name>
<value>/root/training/hadoop-2.7.3/tmp</value>
</property>
mapred-site.xml 默認沒有 cp mapred-site.xml.template mapred-site.xml
<!--MR運行的框架-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
yarn-site.xml
<!--Yarn的主節點RM的位置-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata111</value>
</property>
<!--MapReduce運行方式:shuffle洗牌-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
格式化:HDFS(NameNode)
hdfs namenode -format
日誌:
Storage directory /root/training/hadoop-2.7.3/tmp/dfs/name has been successfully formatted.
啓動中止Hadoop的環境
start-all.sh
stop-all.sh
訪問:經過Web界面
HDFS: http://192.168.153.111:50070
Yarn: http://192.168.153.111:8088
運行
例子:/root/training/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /input/data.txt /output/0407
(*)必定配置免密碼登陸:原理、配置