轉自:http://www.cnblogs.com/sharpxiajun/p/3151395.htmlhtml
開始聊mapreduce,mapreduce是hadoop的計算框架,我學hadoop是從hive開始入手,再到hdfs,當我學習hdfs時候,就感受到hdfs和mapreduce關係的緊密。這個多是我作技術研究的思路有關,我開始學習某一套技術老是想着這套技術到底能幹什麼,只有當我真正理解了這套技術解決了什麼問題時候,我後續的學習就能逐步的加快,而學習hdfs時候我就發現,要理解hadoop框架的意義,hdfs和mapreduce是密不可分,因此當我寫分佈式文件系統時候,老是感受本身的理解膚淺,今天我開始寫mapreduce了,今天寫文章時候比上週要進步多,不過到底能不能寫好本文了,只有試試再說了。java
Mapreduce初析node
Mapreduce是一個計算框架,既然是作計算的框架,那麼表現形式就是有個輸入(input),mapreduce操做這個輸入(input),經過自己定義好的計算模型,獲得一個輸出(output),這個輸出就是咱們所須要的結果。程序員
咱們要學習的就是這個計算模型的運行規則。在運行一個mapreduce計算任務時候,任務過程被分爲兩個階段:map階段和reduce階段,每一個階段都是用鍵值對(key/value)做爲輸入(input)和輸出(output)。而程序員要作的就是定義好這兩個階段的函數:map函數和reduce函數。面試
Mapreduce的基礎實例express
講解mapreduce運行原理前,首先咱們看看mapreduce裏的hello world實例WordCount,這個實例在任何一個版本的hadoop安裝程序裏都會有,你們很容易找到,這裏我仍是貼出代碼,便於我後面的講解,代碼以下:apache
/**
* Licensed to the Apache Software Foundation (ASF) under one
* or more contributor license agreements. See the NOTICE file
* distributed with this work for additional information
* regarding copyright ownership. The ASF licenses this file
* to you under the Apache License, Version 2.0 (the
* "License"); you may not use this file except in compliance
* with the License. You may obtain a copy of the License at
*
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
package
org.apache.hadoop.examples;
import
java.io.IOException;
import
java.util.StringTokenizer;
import
org.apache.hadoop.conf.Configuration;
import
org.apache.hadoop.fs.Path;
import
org.apache.hadoop.io.IntWritable;
import
org.apache.hadoop.io.Text;
import
org.apache.hadoop.mapreduce.Job;
import
org.apache.hadoop.mapreduce.Mapper;
import
org.apache.hadoop.mapreduce.Reducer;
import
org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import
org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import
org.apache.hadoop.util.GenericOptionsParser;
public
class
WordCount {
public
static
class
TokenizerMapper
extends
Mapper<Object, Text, Text, IntWritable>{
private
final
static
IntWritable one =
new
IntWritable(
1
);
private
Text word =
new
Text();
public
void
map(Object key, Text value, Context context
)
throws
IOException, InterruptedException {
StringTokenizer itr =
new
StringTokenizer(value.toString());
while
(itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word, one);
}
}
}
public
static
class
IntSumReducer
extends
Reducer<Text,IntWritable,Text,IntWritable> {
private
IntWritable result =
new
IntWritable();
public
void
reduce(Text key, Iterable<IntWritable> values,
Context context
)
throws
IOException, InterruptedException {
int
sum =
0
;
for
(IntWritable val : values) {
sum += val.get();
}
result.set(sum);
context.write(key, result);
}
}
public
static
void
main(String[] args)
throws
Exception {
Configuration conf =
new
Configuration();
String[] otherArgs =
new
GenericOptionsParser(conf, args).getRemainingArgs();
if
(otherArgs.length !=
2
) {
System.err.println(
"Usage: wordcount <in> <out>"
);
System.exit(
2
);
}
Job job =
new
Job(conf,
"word count"
);
job.setJarByClass(WordCount.
class
);
job.setMapperClass(TokenizerMapper.
class
);
job.setCombinerClass(IntSumReducer.
class
);
job.setReducerClass(IntSumReducer.
class
);
job.setOutputKeyClass(Text.
class
);
job.setOutputValueClass(IntWritable.
class
);
FileInputFormat.addInputPath(job,
new
Path(otherArgs[
0
]));
FileOutputFormat.setOutputPath(job,
new
Path(otherArgs[
1
]));
System.exit(job.waitForCompletion(
true
) ?
0
:
1
);
}
}
|
如何運行它,這裏不作累述了,大夥能夠百度下,網上這方面的資料不少。這裏的實例代碼是使用新的api,你們可能在不少書籍裏看到講解mapreduce的WordCount實例都是老版本的api,這裏我不給出老版本的api,由於老版本的api不太建議使用了,你們作開發最好使用新版本的api,新版本api和舊版本api有區別在哪裏:編程
其餘還有不少區別,都是說明新版本api的優點,由於我提倡使用新版api,這裏就不講這些,由於不必再用舊版本,所以這種比較也沒啥意義了。api
下面我對代碼作簡單的講解,你們看到要寫一個mapreduce程序,咱們的實現一個map函數和reduce函數。咱們看看map的方法:數組
public void map(Object key, Text value, Context context) throws IOException, InterruptedException {…}
這裏有三個參數,前面兩個Object key, Text value就是輸入的key和value,第三個參數Context context這是能夠記錄輸入的key和value,例如:context.write(word, one);此外context還會記錄map運算的狀態。
對於reduce函數的方法:
public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {…}
reduce函數的輸入也是一個key/value的形式,不過它的value是一個迭代器的形式Iterable<IntWritable> values,也就是說reduce的輸入是一個key對應一組的值的value,reduce也有context和map的context做用一致。
至於計算的邏輯就是程序員本身去實現了。
下面就是main函數的調用了,這個我要詳細講述下,首先是:
Configuration conf = new Configuration();
運行mapreduce程序前都要初始化Configuration,該類主要是讀取mapreduce系統配置信息,這些信息包括hdfs還有mapreduce,也就是安裝hadoop時候的配置文件例如:core-site.xml、hdfs-site.xml和mapred-site.xml等等文件裏的信息,有些童鞋不理解爲啥要這麼作,這個是沒有深刻思考mapreduce計算框架形成,咱們程序員開發mapreduce時候只是在填空,在map函數和reduce函數裏編寫實際進行的業務邏輯,其它的工做都是交給mapreduce框架本身操做的,可是至少咱們要告訴它怎麼操做啊,好比hdfs在哪裏啊,mapreduce的jobstracker在哪裏啊,而這些信息就在conf包下的配置文件裏。
接下來的代碼是:
String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); if (otherArgs.length != 2) { System.err.println("Usage: wordcount <in> <out>"); System.exit(2); }
If的語句好理解,就是運行WordCount程序時候必定是兩個參數,若是不是就會報錯退出。至於第一句裏的GenericOptionsParser類,它是用來解釋經常使用hadoop命令,並根據須要爲Configuration對象設置相應的值,其實平時開發裏咱們不太經常使用它,而是讓類實現Tool接口,而後再main函數裏使用ToolRunner運行程序,而ToolRunner內部會調用GenericOptionsParser。
接下來的代碼是:
Job job = new Job(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class);
第一行就是在構建一個job,在mapreduce框架裏一個mapreduce任務也叫mapreduce做業也叫作一個mapreduce的job,而具體的map和reduce運算就是task了,這裏咱們構建一個job,構建時候有兩個參數,一個是conf這個就不累述了,一個是這個job的名稱。
第二行就是裝載程序員編寫好的計算程序,例如咱們的程序類名就是WordCount了。這裏我要作下糾正,雖然咱們編寫mapreduce程序只須要實現map函數和reduce函數,可是實際開發咱們要實現三個類,第三個類是爲了配置mapreduce如何運行map和reduce函數,準確的說就是構建一個mapreduce能執行的job了,例如WordCount類。
第三行和第五行就是裝載map函數和reduce函數實現類了,這裏多了個第四行,這個是裝載Combiner類,這個我後面講mapreduce運行機制時候會講述,其實本例去掉第四行也沒有關係,可是使用了第四行理論上運行效率會更好。
接下來的代碼:
job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class);
這個是定義輸出的key/value的類型,也就是最終存儲在hdfs上結果文件的key/value的類型。
最後的代碼是:
FileInputFormat.addInputPath(job, new Path(otherArgs[0])); FileOutputFormat.setOutputPath(job, new Path(otherArgs[1])); System.exit(job.waitForCompletion(true) ? 0 : 1);
第一行就是構建輸入的數據文件,第二行是構建輸出的數據文件,最後一行若是job運行成功了,咱們的程序就會正常退出。FileInputFormat和FileOutputFormat是頗有學問的,我會在下面的mapreduce運行機制裏講解到它們。
好了,mapreduce裏的hello word程序講解完畢,我這個講解是重新辦api進行,這套講解在網絡上仍是比較少的,應該很具備表明性的。
Mapreduce運行機制
下面我要講講mapreduce的運行機制了,前不久我爲公司出了一套hadoop面試題,裏面就問道了mapreduce運行機制,出題時候我發現這個問題我本身彷佛也將不太清楚,所以最近幾天惡補了下,但願在本文裏能說清楚這個問題。
下面我貼出幾張圖,這些圖都是我在百度圖片裏找到的比較好的圖片:
圖片一:
圖片二:
圖片三:
圖片四:
圖片五:
圖片六:
我如今學習技術很喜歡看圖,每次有了新理解就會去看看圖,每次都會有新的發現。
談mapreduce運行機制,能夠從不少不一樣的角度來描述,好比說從mapreduce運行流程來說解,也能夠從計算模型的邏輯流程來進行講解,也許有些深刻理解了mapreduce運行機制還會從更好的角度來描述,可是將mapreduce運行機制有些東西是避免不了的,就是一個個參入的實例對象,一個就是計算模型的邏輯定義階段,我這裏講解不從什麼流程出發,就從這些一個個牽涉的對象,無論是物理實體仍是邏輯實體。
首先講講物理實體,參入mapreduce做業執行涉及4個獨立的實體:
那麼mapreduce究竟是如何運行的呢?
首先是客戶端要編寫好mapreduce程序,配置好mapreduce的做業也就是job,接下來就是提交job了,提交job是提交到JobTracker上的,這個時候JobTracker就會構建這個job,具體就是分配一個新的job任務的ID值,接下來它會作檢查操做,這個檢查就是肯定輸出目錄是否存在,若是存在那麼job就不能正常運行下去,JobTracker會拋出錯誤給客戶端,接下來還要檢查輸入目錄是否存在,若是不存在一樣拋出錯誤,若是存在JobTracker會根據輸入計算輸入分片(Input Split),若是分片計算不出來也會拋出錯誤,至於輸入分片我後面會作講解的,這些都作好了JobTracker就會配置Job須要的資源了。分配好資源後,JobTracker就會初始化做業,初始化主要作的是將Job放入一個內部的隊列,讓配置好的做業調度器能調度到這個做業,做業調度器會初始化這個job,初始化就是建立一個正在運行的job對象(封裝任務和記錄信息),以便JobTracker跟蹤job的狀態和進程。初始化完畢後,做業調度器會獲取輸入分片信息(input split),每一個分片建立一個map任務。接下來就是任務分配了,這個時候tasktracker會運行一個簡單的循環機制按期發送心跳給jobtracker,心跳間隔是5秒,程序員能夠配置這個時間,心跳就是jobtracker和tasktracker溝通的橋樑,經過心跳,jobtracker能夠監控tasktracker是否存活,也能夠獲取tasktracker處理的狀態和問題,同時tasktracker也能夠經過心跳裏的返回值獲取jobtracker給它的操做指令。任務分配好後就是執行任務了。在任務執行時候jobtracker能夠經過心跳機制監控tasktracker的狀態和進度,同時也能計算出整個job的狀態和進度,而tasktracker也能夠本地監控本身的狀態和進度。當jobtracker得到了最後一個完成指定任務的tasktracker操做成功的通知時候,jobtracker會把整個job狀態置爲成功,而後當客戶端查詢job運行狀態時候(注意:這個是異步操做),客戶端會查到job完成的通知的。若是job中途失敗,mapreduce也會有相應機制處理,通常而言若是不是程序員程序自己有bug,mapreduce錯誤處理機制都能保證提交的job能正常完成。
下面我從邏輯實體的角度講解mapreduce運行機制,這些按照時間順序包括:輸入分片(input split)、map階段、combiner階段、shuffle階段和reduce階段。
Mapreduce的相關問題
這裏我要談談我學習mapreduce思考的一些問題,都是我本身想出解釋的問題,可是某些問題到底對不對,就要廣大童鞋幫我確認了。
好了,文章寫完了,呵呵,這篇我本身感受寫的不錯,是目前hadoop系列文章裏寫的最好的,我後面會再接再礪的。加油!!!