Spark-Sql整合hive,在spark-sql命令和spark-shell命令下執行sql命令和整合調用hive

1.安裝hive 若是想建立一個數據庫用戶,而且爲數據庫賦值權限,能夠參考:http://blog.csdn.net/tototuzuoquan/article/details/52785504java 2.將配置好的hive-site.xml、core-site.xml、hdfs-site.xml放入$SPARK_HOME/conf目錄下mysql [root@hadoop1 conf]# cd
相關文章
相關標籤/搜索