Hadoop之DataNode工作流程

一、簡介 DataNode提供真實文件數據的存儲服務,通過文件塊(block最基本的存儲單位)來存儲。對於文件內容而言,一個文件的長度大小是size,那麼從文件的0偏移開始,按照固定的大小,順序對文件進行劃分並編號,劃分好的每一個塊稱一個Block。 HDFS默認Block大小是128MB,以一個256MB文件,共有256/128=2個Block;不同於普通文件系統的是,HDFS中,如果一個文件小
相關文章
相關標籤/搜索