Spark開始 ———環境搭建

Standalone模式 準備好兩臺以上的Linux機器,安裝好JDK1.7+ 1.下載並上傳Spark安裝包 注意與hadoop對應得版本號 下載鏈接:https://archive.apache.org/dist/spark/ 解壓命令:tar -xf spark-2.1.1-bin-hadoop2.6.tgz -C ..........   2.配置Spark 配置位於conf文件夾中 1.
相關文章
相關標籤/搜索