MapReduce工作流程概述

Mapreduce工作流程概述  HDFS以固定大小的block爲基本單位存儲數據,而對於mapreduce而言,其處理單位爲split;split是一個邏輯概念,它只包含一些元數據信息,如數據起始位置,數據長度,數據所在節點等,它的劃分方法完全由用戶自己決定 Map任務數量  Hadoop爲每個split創建一個map任務,split多少決定了map任務的數目  大多數情況下,理想的分片大
相關文章
相關標籤/搜索