jdbc調用sparksql on yarn

spark sql訪問hive表 1.將hive-site.xml拷貝到spark目錄下conf文件夾 2.(非必需)將mysql的jar包引入到spark的classpath,方式有以下兩種: 方式1:須要在$SPARK_HOME/conf/spark-env.sh中的SPARK_CLASSPATH添加jdbc驅動的jar包java export SPARK_CLASSPATH=$SPARK_C
相關文章
相關標籤/搜索