MapReduce執行流程詳解

       在hadoop中,每一個mapreduce任務都會被初始化爲一個Job。每一個Job又能夠分爲兩個階段:map階段和reduce階段。這兩個階段分別用兩個函數來表示,即map函數和reduce函數。map函數接收一個<key,value>形式的輸入,而後產生一樣爲<key,value>形式的中間輸出,hadoop會負責將全部具備相同中間key值的value集合到一塊兒傳遞給reduc
相關文章
相關標籤/搜索