Windows下Spark python 單機開發環境

Spark提供的pyspark可以像scala shell一樣提供交互式的開發,本文介紹在windows下單機環境下的pyspark配置,當然數據量小,任務簡單,條件有限的可以在單機上這樣做示例,數據量大任務重的還是配置linux集羣環境。 1.官網下載好的Spark包解壓至某目錄,如E:\spark-2.1.0-bin-hadoop2.6, 2.添加環境變量SPARK_HOME如下: 3.安裝f
相關文章
相關標籤/搜索