Hive在spark2.0.0啓動時無法訪問../lib/spark-assembly-*.jar: 沒有那個文件或目錄的解決辦法

最近將整個架構升級到spark 2.0.0之後,發現一個問題,就是每次進行hive --service metastore啓動的時候,總是會報一個小BUG。 無法訪問/home/ndscbigdata/soft/spark-2.0.0/lib/spark-assembly-*.jar: 沒有那個文件或目錄。 其主要的原因是:在hive.sh的文件中,發現了這樣的命令,原來初始當spark存在的時候
相關文章
相關標籤/搜索