在windows本地編寫spark的wordcount

最近要用到spark,這裏記錄以下在windows本地搭建spark的詞頻統計的整個流程。首先明確一下版本,這裏用的是hadoop-2.7.0版本,spark版本必須要與之對應,這裏用的是下面這個,下載地址在這裏http://spark.apache.org/downloads.html ,這裏用的是scale ide,對應的scala版本是2.11.8,對應的jdk是1.8,好了廢話不多說,直接
相關文章
相關標籤/搜索