對SerializerManager的說明:java
它是爲各類Spark組件配置序列化,壓縮和加密的組件,包括自動選擇用於shuffle的Serializer。spark中的數據在network IO 或 local disk IO傳輸過程當中。都須要序列化。其默認的 Serializer 是 org.apache.spark.serializer.JavaSerializer,在必定條件下,可使用kryo,即org.apache.spark.serializer.KryoSerializer。apache
即值的類型是八種基本類型中一種或null或String,都會使用kryo,不然使用默認序列化方式,即java序列化方式。數組
它還負責讀寫Block流是否使用壓縮:函數
默認狀況下:加密
其中,若是使用壓縮,默認的壓縮是 lz4, 能夠經過參數 spark.io.compression.codec 來配置。它支持的全部壓縮類型以下:spa
其中,支持壓縮的InputStream和OutputStream是對原來的InputStream和OutputStream作了包裝。咱們以LZ4BlockOutputStream爲例說明。code
調用以下函數返回支持壓縮的OutputStream:blog
首先,LZ4BlockOutputStream的繼承關係以下:繼承
被包裝的類被放到了FilterOutputStream類的out 字段中,以下:it
outputStream核心方法就是write。直接來看LZ4BlockOutputStream的write方法:
其中buffer是一個byte 數組,默認是 32k,能夠經過spark.io.compression.lz4.blockSize 參數來指定,在LZ4BlockOutputStream類中用blockSize保存。
重點看flushBufferedData方法:
方法內部實現思路以下:
外部寫入到buffer中的數據通過compressor壓縮到compressorBuffer中,而後再寫入一些magic,最終將壓縮的buffer寫入到out中,write操做結束。
可見,數據的壓縮是由 LZ4BlockOutputStream 負責的,壓縮以後的數據被寫入到目標outputStream中。