spark-2.0.0與hive-1.2.1整合

SparkSQL與Hive的整合sql

1. 拷貝$HIVE_HOME/conf/hive-site.xml和hive-log4j.properties到 $SPARK_HOME/conf/spa

2. 在$SPARK_HOME/conf/目錄中,修改spark-env.sh,添加xml

export HIVE_HOME=/opt/hive-1.2.1blog

export SPARK_CLASSPATH=$HIVE_HOME/lib:$SPARK_CLASSPATHit

3. 另外也能夠設置一下Spark的log4j配置文件,使得屏幕中不打印額外的INFO信息:spark

log4j.rootCategory=WARN, consoleconsole

(但仍是有信息提示)配置

進入$SPARK_HOME/bin執行 spark-sqlim

相關文章
相關標籤/搜索