HDFS的核心思想和組件架構

1、HDFS核心思想 HDFS(Hadoop Distribute FIleSystem) 用來處理海量數據的存儲,是hadoop的分佈式文件系統。 (1)數據存儲在集羣中的某臺機器上,爲保證數據安全,需要將這個數據進行物理切塊存儲,每一塊的大小是128M(可根據機器的性能進行修改),將每一塊分別存儲到三臺不同的機器上(三個副本)。 (爲什麼是128M:根據統計,處理完一個文件的效率最優策略是1s
相關文章
相關標籤/搜索