【五】Spark SQL中HiveContext的使用(操做hive中的表)(提交到服務器上執行)(Hadoop HA)

HiveContext在基本的SQLContext上有了一些新的特性,能夠用Hive QL寫查詢,能夠讀取Hive表中的數據,支持Hive的UDF。html 要把hive/conf/hive-site.xml文件拷貝到spark/conf下。java cd /app/hive/confnode scp hive-site.xml root@node1:/app/spark/spark-2.2.0-
相關文章
相關標籤/搜索