Spark job提交時,spark-submit的主要參數的解析及建議

前言 說spark之前,先提一下MapReduce:     最本質的兩個過程就是Map和Reduce Map的應用在於我們需要數據一對一的元素的映射轉換,比如說進行截取,進行過濾,或者任何的轉換操作,這些一對一的元素轉換就稱作是Map; Reduce主要就是元素的聚合,就是多個元素對一個元素的聚合,比如求Sum等,這就是Reduce。 Mapreduce是Hadoop1.0的核心,Spark出現
相關文章
相關標籤/搜索