PyCharm搭建Spark開發環境 + 第一個pyspark程序

一, PyCharm搭建Spark開發環境 Windows7, Java 1.8.0_74, Scala 2.12.6, Spark 2.2.1, Hadoop 2.7.6 通常情況下,Spark開發是基於Linux集羣的,但這裏作爲初學者並且囊中羞澀,還是在windows環境下先學習吧。 參照這個配置本地的Spark環境。 之後就是配置PyCharm用來開發Spark。本人在這裏浪費了不少時間,
相關文章
相關標籤/搜索