python調用pyspark的環境配置

1.安裝jdk並配置JAVA_HOME以及添加到環境變量中。 2.首先在本地安裝spark的運行環境,如果是純粹使用spark,那麼本地可以不配置hadoop_home。 下載好壓縮文件之後進行解壓,本地新建spark_home文件夾,之後配置環境變量SPARK_HOME,在PATH中添加%SPARK_HOME%\bin。 3.使用pyspark之前首先安裝python,這裏安裝了python,但
相關文章
相關標籤/搜索