簡介:目前業界主流存儲與分析平臺以Hadoop爲主的開源生態圈,MapReduce做爲Hadoop的數據集的並行運算模型,除了提供Java編寫MapReduce任務外,還兼容了Streaming方式,能夠使用任意腳本語言來編寫MapReduce任務,優勢是開發簡單且靈活。java
yum安裝方式:yum install -y java-1.6.0-openjdk* 配置Java環境變量:vi /etc/profile JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64 JRE_HOME=$JAVA_HOME/jre CLASS_PATH=::$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin export JAVA_HOME JRE_HOME CLASS_PATH PATH 使配置文件生效:source /etc/profile
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/data/tmp/hadoop-${user.name}</value> </property> <property> <name>fs.default.name</name> <value>hdfs://192.168.1.1:9000</value> </property> </configuration>
<configuration> <property> <name>dfs.name.dir</name> <value>/data/tmp/name</value> </property> <property> <name>dfs.data.dir</name> <value>/data/hdfs/data</value> </property> <property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration>
<configuration> <property> <name>mapred.job.tracker</name> <value>192.168.1.1:9001</value> </property> </configuration>
masters文件node
192.168.1.1
slaves文件jvm
192.168.1.1 192.168.1.2 192.168.1.3
master主機tcp
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50030 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50070 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 9000 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 90001 -j ACCEPT
Slave主機ide
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50075 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50060 -j ACCEPT iptables -I INPUT -s 192.168.1.1 -p tcp --dport 50010 -j ACCEPT
./bin/start-all.sh
所示結果以下,表示啓動成功
oop
./bin/hadoop jar hadoop-examples-1.2.1.jar pi 10 100
所示結果以下,表示配置成功
測試
Map/Reduce管理地址:192.168.1.1:50030
HDFS管理地址:192.168.1.1:50070
大數據