【轉】 五步完成pyspark:連接spark集羣Windows環境搭建

原文鏈接:https://blog.csdn.net/qq_23860475/article/details/90476197 1.軟件 1、anaconda(python3.6) 2、spark-2.4.3-bin-hadoop2.7(spark版本要和集羣上的一樣) 3、JDK1.8 2.python環境配置 pip install pyspark 這裏如果遇到安裝超時的情況採用以下命令 pi
相關文章
相關標籤/搜索