Hadoop分佈式文件系統-HDFS的一些概念

當數據集的大小超過一臺獨立的物理計算機的存儲能力是,就有必要對它進行分區(partition)並存儲到若干臺單獨的計算機上。管理網絡中跨多臺計算機存儲的文件系統稱爲分佈式文件系統(distributed filesystem)。Hadoop 自帶一個HDFS 的分佈式文件系統,即 Hadoop Distributed Filesystem。 HDFS 的設計 超大文件 指的是具有幾百MB、幾百GB
相關文章
相關標籤/搜索