在進行Spark與HBase 集成的過程當中遇到如下問題:java
我事先已經將所須要的jar支持包所有拷貝到了各節點下的spark路徑下的jar目錄,可是在啓動bin/spark-shell時老是報以上錯誤。在網上也看來不少解決方法,好比將缺失的jar包 :hbase/lib 下 hbase*.jar,metrics*.jar.htrace*.jar 等拷貝到spark/jar目錄,但這不正是個人啓動準備工做嗎,等於沒說!node
從故障根源分析,形成此錯誤的緣由在於Spark啓動的時候沒法正常從咱們的jar目錄加載到它所須要的jar包(此處表現爲/htrace-core-3.0.4.jar包)。因此,直接將包添加到jar目錄是沒法解決此問題的,而咱們須要作的是給它指明CLASSPATH路徑,在它不能找到所須要的jar包時就能夠今後路徑尋找。sql
解決辦法:shell
在spark/conf目錄下的spark-env.sh配置文件添加如下配置內容express
以上就是博主爲你們介紹的這一板塊的主要內容,這都是博主本身的學習過程,但願能給你們帶來必定的指導做用,有用的還望你們點個支持,若是對你沒用也望包涵,有錯誤煩請指出。若有期待可關注博主以第一時間獲取更新哦,謝謝!同時也歡迎轉載,但必須在博文明顯位置標註原文地址,解釋權歸博主全部!apache