【大數據開發面試】Spark的運行模式,spark的核心組件,spark中寫代碼的流程(spark中資源調度和任務調度,RDD的彈性分佈模式)【圖解+原理】

 2.Spark運行模式?         1).Local:在eclipse/IDEA中編寫代碼,在本地運行         2).Standalone:Spark自帶的資源調度框架,支持分佈式搭建。         3).Yarn:Hadoop生態圈內的資源調度框架。         4).Mesos:資源調度框架。框架     3.Spark核心RDD         1).RDD(Resi
相關文章
相關標籤/搜索