pycharm 開發 spark 程序 配置

方法一:  1.pycharm 中 peoject structer 配置: 2.py文件添加SPARK_HOME 和 HADOOP_HOME   方法二: 1.在C:\Anaconda3\Lib\site-packages目錄下新建pyspark.pth, 內容是 D:\2_job\learning\py_spark\support_file\spark-2.3.1-bin-hadoop2.7\
相關文章
相關標籤/搜索