Spark工作原理

  基本概念 理解Spark的運行模式涉及一系列概念: (1)Cluster Manager:在集羣上獲取資源的外部服務。目前有三種類型:1. Standalone, Spark原生的資源管理;2. Apache Mesos, 和Hadoop Mapreduce兼容性良好  的資源調度框架;3. Hadoop Yarn, 主要指YARN中的ResourceManager. (2)Applicati
相關文章
相關標籤/搜索