Spark 持久化(緩存)

Spark 持久化(緩存)  如前所述,Spark RDD 是惰性求值的,而有時咱們但願能屢次使用同一個RDD。若是簡單地對RDD 調用行動操做,Spark 每次都會重算RDD 以及它的全部依賴。這在迭代算法中消耗格外大,由於迭代算法經常會屢次使用同一組數據。javascript var input = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7)) v
相關文章
相關標籤/搜索