spark sql 沒法訪問 hive metastore問題解決

Spark SQL on Hive是Shark的一個分支,是HIVE執行分析引擎的一個重要利器。在Spark 1.5.1的時候,能夠很是簡單地在spark shell中進行Hive的訪問,然而到了Spark 1.5.2時,發現進入Spark Shell的時候,老是出現報錯,其緣由老是沒法訪問hive的metastore,從而沒法進行各類操做,至關的煩人的。 看了說明,說是要配置hive thrif
相關文章
相關標籤/搜索