Spark Streaming 數據清理機制

你們剛開始用Spark Streaming時,內心確定嘀咕,對於一個7*24小時運行的數據,cache住的RDD,broadcast 系統會幫忙本身清理掉麼?仍是說必須本身作清理?若是系統幫忙清理的話,機制是啥?apache 前言 爲啥要了解機制呢?這就比如JVM的垃圾回收,雖然JVM的垃圾回收已經巨牛了,可是依然會遇到不少和它相關的case致使系統運行不正常。編程 這個內容我記得本身剛接觸Spa
相關文章
相關標籤/搜索