MapReduce工作機制

MapReduce工作流程 1、InputFormat根據job提供的文件目錄,對目錄下面的文件進行遍歷 2、首先遍歷第一個文件 獲取文件的大小 獲取切片大小        上面的源碼就是切片大小的計算公式,blocksize爲塊的大小;如果job運行在本地,默認塊大小是32M;如果job運行在yarn上,hadoop1.x 默認塊大小是64M;hadoop2.x 默認塊大小是128M。     
相關文章
相關標籤/搜索