hadoop shuffle 落磁盤

宏觀上,Hadoop每一個做業要經歷兩個階段:Map phase和reduce phase。對於Map phase,又主要包含四個子階段:從磁盤上讀數據-》執行map函數-》combine結果-》將結果寫到本地磁盤上;對於reduce phase,一樣包含四個子階段:從各個map task上讀相應的數據(shuffle)-》sort-》執行reduce函數-》將結果寫到HDFS中。函數

-D mapreduce.reduce.shuffle.input.buffer.percent=0.6
-D mapreduce.reduce.shuffle.memory.limit.percent=0.20oop

相關文章
相關標籤/搜索