看了下MapReduce的例子。再看了下Mapper和Reducer源碼,理清了參數的意義,就o了。服務器
public class Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT> public class Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT>
Map是打散過程,把輸入的數據,拆分紅若干的鍵值對。Reduce是重組的,根據前面的鍵值對,重組數據。app
本身寫Map/Reduce的話,理解了如何拆分數據、組裝數據,理解了Map的一些特性,就能寫了,沒啥大的難度,主要就是如何拆分和重組,這個看業務須要了。oop
發佈和測試的話,我的認爲仍是不要用那個插件了,會打包一堆的jar包進去,本身打包個jar包,只要class啥的,就一點點大而已。打包好後,丟去hadoop服務器,直接用$HADOOP_HOME/bin下的haddop命令跑就行了。測試
這部分實在是沒啥好寫的了。spa