Spark-core 架構及工作機制綜述

注:本文參考文獻有書籍《Spark大數據處理:技術、應用與性能優化》、RDD的Paper《Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing》。從三個部分來解讀Spark-core,首先是Spark的架構,闡述了Spark基於彈性分佈式數據集RDD這個計算模型的工作
相關文章
相關標籤/搜索