windows使用命令行啓動pyspark報錯

安裝Hadoop https://www.cnblogs.com/chevin/p/9090683.html 安裝Spark https://www.cnblogs.com/chevin/p/11064854.html 這裏有一個坑,一開始電腦用的是3.8的python,然後命令行啓動pyspark一直報錯,如下圖 無法正確初始化Spark和SparkContext Traceback (most
相關文章
相關標籤/搜索