windows環境安裝spark,無法導入pyspark模塊

隨便打開一個project,pycharm右上角「run」三角形的左邊有一個edit configurition,打開它。  設置configurition---Environment--- Environment variables ---點擊「...」,出現框框,點擊+, 輸入兩個name, 一個是SPARK_HOME  =  D:/spark-2.1.1-bin-hadoop2.7 一個是P
相關文章
相關標籤/搜索