暢聊Spark(二)RDD

                                                 Spark Core RDD 爲什麼要有RDD?       Hadoop的MapReduce是一種基於數據集的工作模式,面向數據,這種工作模式一般是從存儲上加載數據集,然後操作數據集,最後寫入到物理存儲設備中,數據更多面臨的是一次性處理。       MR的這種方式對數據領域兩種常用的操作不是很高效
相關文章
相關標籤/搜索