Windows 上面搭建 Spark + Pycharm/idea scala/python 本地編寫Spark程序,測試通過後再提交到Linux集羣上

Windows 上面搭建 Spark + Pycharm/idea scala/python 本地編寫Spark程序,測試通過後再提交到Linux集羣上 1、首先安裝Java 、Scala,然後下載spark-2.1.0-bin-hadoop2.7.tar.gz和hadoop-2.7.3.tar.gz並解壓 2、分別在環境變量中添加JAVA_HOME、HADOOP_HOME、SPARK_HOME(
相關文章
相關標籤/搜索