在Yarn上運行spark-shell和spark-sql命令行

轉載自:http://lxw1234.com/archives/2015/08/448.htmjava 若是你已經有一個正常運行的Hadoop Yarn環境,那麼只須要下載相應版本的Spark,解壓以後作爲Spark客戶端便可。mysql 須要配置Yarn的配置文件目錄,export HADOOP_CONF_DIR=/etc/hadoop/conf 這個能夠配置在spark-env.sh中。web
相關文章
相關標籤/搜索