大數據實驗——用Spark實現wordcount單詞統計

一、實驗目的 學會啓用spark 將文本上傳到hdfs上 在scala模式下編寫單詞統計 二、實驗過程 瞭解spark的構成   2、具體步驟     1、打開一個終端,啓動hadoop [email protected]:/usr/local/hadoop/sbin$ ./start-all.sh     2、啓動spark [email protected]:/usr/local/spark/
相關文章
相關標籤/搜索