MapReduce執行過程分析

這個是個問題貼,由about雲會員提問。會員答疑。提問和回答都比較有水平,分享出來。 1. MapReduce輸入的時候,會對HDFS上面的文件進行split,切分的原則是什麼樣子的?假如HDFS默認文件存儲塊大小是64MB。如果一個129MB的文件存在HDFS上面,會有三個文件塊,分別是64MB/64MB/1MB。那麼此時進行切分的時候,是split爲幾分? Hadoop 2.x默認的block
相關文章
相關標籤/搜索