windows下spark開發環境配置

--本篇隨筆由同事葛同學提供。 windows下spark開發環境配置 特注:windows下開發spark不需要在本地安裝hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已經安裝了eclipse、maven、jdk等軟件 spark支持jdk版本建議是1.8及以上,如果開發spark建議將jdk編譯版本設置爲1.8   我選擇的spark是spark-1.4.
相關文章
相關標籤/搜索