Hadoop的HDFS和MapReduce子框架主要是針對大數據文件來設計的,在小文件的處理上不但效率低下,並且十分消耗內存資源(每個小文件佔用一個Block,每個block的元數據都存儲在namenode的內存裏)。解決辦法一般是選擇一個容器,將這些小文件組織起來統一存儲。HDFS提供了兩種類型的容器,分別是SequenceFile和MapFile。java
SequenceFile的存儲相似於Log文件,所不一樣的是Log File的每條記錄的是純文本數據,而SequenceFile的每條記錄是可序列化的字符數組。node
SequenceFile可經過以下API來完成新記錄的添加操做:算法
fileWriter.append(key,value)數組
能夠看到,每條記錄以鍵值對的方式進行組織,但前提是Key和Value需具有序列化和反序列化的功能網絡
Hadoop預約義了一些Key Class和Value Class,他們直接或間接實現了Writable接口,知足了該功能,包括:數據結構
Text 等同於Java中的String
IntWritable 等同於Java中的Int
BooleanWritable 等同於Java中的Boolean
.
.app
在存儲結構上,SequenceFile主要由一個Header後跟多條Record組成,如圖所示:框架
Header主要包含了Key classname,Value classname,存儲壓縮算法,用戶自定義元數據等信息,此外,還包含了一些同步標識,用於快速定位到記錄的邊界。oop
每條Record以鍵值對的方式進行存儲,用來表示它的字符數組可依次解析成:記錄的長度、Key的長度、Key值和Value值,而且Value值的結構取決於該記錄是否被壓縮。大數據
數據壓縮有利於節省磁盤空間和加快網絡傳輸,SeqeunceFile支持兩種格式的數據壓縮,分別是:record compression和block compression。
record compression如上圖所示,是對每條記錄的value進行壓縮
block compression是將一連串的record組織到一塊兒,統一壓縮成一個block,如圖所示:
block信息主要存儲了:塊所包含的記錄數、每條記錄Key長度的集合、每條記錄Key值的集合、每條記錄Value長度的集合和每條記錄Value值的集合
注:每一個block的大小是可經過io.seqfile.compress.blocksize屬性來指定的
示例:SequenceFile讀/寫 操做
MapFile是排序後的SequenceFile,經過觀察其目錄結構能夠看到MapFile由兩部分組成,分別是data和index。
index做爲文件的數據索引,主要記錄了每一個Record的key值,以及該Record在文件中的偏移位置。在MapFile被訪問的時候,索引文件會被加載到內存,經過索引映射關係可迅速定位到指定Record所在文件位置,所以,相對SequenceFile而言,MapFile的檢索效率是高效的,缺點是會消耗一部份內存來存儲index數據。
需注意的是,MapFile並不會把全部Record都記錄到index中去,默認狀況下每隔128條記錄存儲一個索引映射。固然,記錄間隔可人爲修改,經過MapFIle.Writer的setIndexInterval()方法,或修改io.map.index.interval屬性;
另外,與SequenceFile不一樣的是,MapFile的KeyClass必定要實現WritableComparable接口,即Key值是可比較的。
示例:MapFile讀寫操做
注意:使用MapFile或SequenceFile雖然能夠解決HDFS中小文件的存儲問題,但也有必定侷限性,如:1.文件不支持複寫操做,不能向已存在的SequenceFile(MapFile)追加存儲記錄2.當write流不關閉的時候,沒有辦法構造read流。也就是在執行文件寫操做的時候,該文件是不可讀取的