6.Spark Core 應用解析之RDD持久化

1.概述 Spark是分佈式基於內存的數據處理引擎,它的一個基本功能是將RDD持久化到內存中。巧妙使用RDD持久化,甚至在某些場景下,能夠將spark應用程序的性能提高10倍。對於迭代式算法和快速交互式應用來講,RDD持久化,是很是重要的。java Spark中最重要的功能之一是操做時在內存中持久化(緩存)數據集。默認狀況下當使用action 在RDD上時Spark會從新計算刷新RDD.但也能夠經
相關文章
相關標籤/搜索