Windows 上面搭建 Spark + Pycharm/idea scala/python 本地編寫Spark程序,測試經過後再提交到Linux集羣上

Windows 上面搭建 Spark + Pycharm/idea scala/python 本地編寫Spark程序,測試經過後再提交到Linux集羣上python 一、首先安裝Java 、Scala,而後下載spark-2.1.0-bin-hadoop2.7.tar.gz和hadoop-2.7.3.tar.gz並解壓 二、分別在環境變量中添加JAVA_HOME、HADOOP_HOME、SPARK
相關文章
相關標籤/搜索