大數據面試題——Spark面試題(三)

1、爲什麼要進行序列化序列化?     可以減少數據的體積,減少存儲空間,高效存儲和傳輸數據,不好的是使用的時候要反序列化,非常消耗CPU。   2、Yarn中的container是由誰負責銷燬的,在Hadoop Mapreduce中container可以複用麼?     ApplicationMaster負責銷燬,在Hadoop Mapreduce不可以複用,在spark on yarn程序co
相關文章
相關標籤/搜索