在ubuntu上搭建spark (單機環境)

在ubuntu上搭建spark,記錄一下   環境:ubuntu 16.04 spark-2.3.1-bin-hadoop2.7.tgz http://spark.apache.org/docs/latest/quick-start.html   使用已有的hadoop用戶登錄 1.安裝JDK,配置Java環境; 2.安裝Scala 注意Scala和Spark的版本對應關係 sudo apt in
相關文章
相關標籤/搜索