Windows下的spark環境的搭建

*注 在搭建spark環境時需要配置好JDK 直接在http://spark.apache.org/downloads.html下載spark 添加spark環境變量 D:\spark-2.2.0-bin-hadoop2.7\bin 新建hadoop文件,在hadoop文件下新建bin目錄 去 https://github.com/steveloughran/winutils 選擇你對應的hado
相關文章
相關標籤/搜索