SparkSQL集成Hive

(1)相關配置: 將以下文件拷貝到 $SPARK_HOME/conf 目錄下 Hive: hive-site.xml Hadoop: core-site.xml和hdfs-site.xml 同時,啓動Spark shell 的時候,需要制定mysql的驅動 首先查看core-site.xml,hdfs-site.xml,hive-site.xml       (2)拷貝mysql-connecto
相關文章
相關標籤/搜索