hadoop中各個節點的功能及HDFS文件上傳流程圖

       Hadoop是一個能夠對大量數據進行分佈式處理的軟件框架,實現了Google的MapReduce編程模型和框架,能夠把應用程序分割成許多的小的工作單元(塊),並把這些單元放到任何集羣節點上執行。在MapReduce中,一個準備提交執行的應用程序稱爲「作業(job)」,而從一個作業劃分出得、運行於各個計算節點的工作單元稱爲「任務(task)」。此外,Hadoop提供的分佈式文件系統(H
相關文章
相關標籤/搜索