PYSpark環境構建總結

一、需要的軟件及版本 jdk版本:1.8 spark 版本:-2.4.0-bin-hadoop2.7 scala版本:2.12 (可選) hadoop版本:2.7 ====另外需要 python版本:3.7 或者anaconda pyspark以及py4j pycharm的安裝,暫時用社區版吧 二、環境變量配置: JAVA_HOME=C:\gyhProgramFiles\jdk\jdk8 SPAR
相關文章
相關標籤/搜索