大數據學習筆記(五)

MapReduce的工作流程  作業執行涉及4個獨立的實體 客戶端,用來提交MapReduce作業 JobTracker,用來協調作業的運行 TaskTracker,用來處理作業劃分後的任務 HDFS,用來在其它實體間共享作業文件 首先,客戶端編寫好MapReduce的程序,提交一個job到JobTracker上,JobTracker構建一個Job,具體就是分配新的一個job的ID值。 然後檢查輸
相關文章
相關標籤/搜索