spark處理大數據的幾個實例介紹

在集羣中跑應用,而不是在shell中 感覺寫spark應用的過程web 整個過程爲: 一、案例分析:要用哪些spark的RDD的API 二、編程實現: 用到scala 三、提交到集羣執行:如何提交到集羣,文件是否先傳到HDFS上 四、監控執行結果: 經過web能夠看到 介紹了四個案例: 好比 統計1千萬我的的平均身高,若是用其餘語言,估計要好幾小時,由於磁盤讀寫,要反覆計算 用了spark以後,分
相關文章
相關標籤/搜索