Spark - A Fault-Tolerant Abstraction for In-Memory Cluster Computing

Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing   爲什麼需要Spark? 當前已經有比較多的compute framework  比如, Hadoop用於batch分析, 全量分析  Storm用於streaming分析  但是這些場景, 數據都是隻需要使用一
相關文章
相關標籤/搜索