WIN7下安裝pyspark

一、需要的東西 (1)java JDK 1.8 以上 (2)spark  (3)hadoop(不確定是否必須)+winutils.exe執行文件 (4)python 下面就一個個說明 二、具體操作 【下面所有軟件安裝時,請注意路徑,路徑不要有空格或者其他奇怪的符號,否則會出現奇形怪狀的錯誤,切記切記】 (1)安裝jdk 這一步比較簡單,可以參考這個 https://www.cnblogs.com/
相關文章
相關標籤/搜索