經過Spark訪問Hbase的Hive外部表(hive on hbase的表)

業務處理的過程當中,使用到pyspark訪問hive,直接訪問沒有問題, 後面遇到使用pyspark訪問hive關聯hbase的表(hive on hbase),就出現報錯了。sql 首先集羣已經能夠經過spark-sql讀取hive的數據,而後進行以下配置。apache 1.拷貝以下jar包到${spark_home}/jars(spark2.0以前是${spark_home}/lib):app
相關文章
相關標籤/搜索