子雨大數據之Spark入門教程---Spark入門:RDD的設計與運行原理1.3

Spark的核心是創建在統一的抽象RDD之上,使得Spark的各個組件能夠無縫進行集成,在同一個應用程序中完成大數據計算任務。RDD的設計理念源自AMP實驗室發表的論文《Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing》。程序員 1.RDD設計背景 在實際應用中,
相關文章
相關標籤/搜索