linux中用spark進行單詞數統計--wordCount例子操做詳解【scala版】

這是命令行的簡單操做案例,借用spark裏面的API:flatMap、reduceByKey來實現,步驟以下: 1)啓動spark shell:web ./spark-shell --master local[2] 注:spark shell 是spark自帶的一個快速開發工具,在spark目錄下bin目錄裏面shell 2)讀入須要處理的單詞文件svg val file = sc.textFil
相關文章
相關標籤/搜索