在搭建大數據Hadoop相關的環境時候,遇到不少了不少錯誤。我是個喜歡作筆記的人,這些錯誤基本都記載,而且將解決辦法也寫上了。所以寫成博客,但願可以幫助那些搭建大數據環境的人解決問題。java
說明: 遇到的問題以及相應的解決辦法是對於我的當時的環境,具體因人而異。若是碰到一樣的問題,本博客的方法沒法解決您的問題,請先檢查環境配置問題。node
緣由: 字符編碼問題。
解決辦法: 統一編碼,將文件打開,另存爲統一編碼,如UTF-8 便可。mysql
緣由:hadoop版本問題,命令過期。
解決辦法: 將hadoop命令改爲hdfs。sql
緣由:沒有指定路徑
解決辦法:修改hadoop-env.sh文件。安裝的hadoop路徑是「/usr/local/hadoop/hadoop-2.8.2」, 在此路徑下執行 vim etc/hadoop/hadoop-env.sh 在文件最後面添加 export HADOOP_PREFIX=/usr/local/hadoop/hadoop-2.8.2 ,並保存。數據庫
緣由: hadoop的環境沒有配置好,或者沒有使配置生效。
解決辦法: 若是沒有配置Hadoop的環境變量,就填加配置。apache
例如:ubuntu
export JAVA_HOME=/opt/java/jdk export HADOOP_HOME=/opt/hadoop/hadoop2.8 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
而後使配置文件生效
輸入:vim
source /etc/profile
緣由: 使用hadoop新建目錄的時候報錯,命名格式有問題
解決辦法: 輸入正確的命令格式
例如:windows
$HADOOP_HOME/bin/hadoop fs -mkdir -p /user/hive/warehouse
緣由:多是/etc/profile 配置未能成功配置
解決辦法: 確認配置文件沒有問題以後,發現環境變量後面多了空格,將環境變量後面的空格去掉以後就行了。api
緣由:Apache提供的hadoop本地庫是32位的,而在64位的服務器上就會有問題,所以須要本身編譯64位的版本。
解決辦法:
1.編譯64位版本的lib包,可使用這個網站提供的編譯好的http://dl.bintray.com/sequenceiq/sequenceiq-bin/ 。
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
參考:
http://blog.csdn.net/jack85986370/article/details/51902871
緣由:多是hadoop的集羣的配置不正確
解決方案: 檢查hadoop/ etc/hadoop 的主要配置文件是否正確配置。
緣由:多是沒有添加jdbc的驅動
解決辦法: Spark 中若是沒有配置鏈接驅動,在spark/conf 目錄下編輯spark-env.sh 添加驅動配置
例如:
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/opt/spark/spark2.2/jars/mysql-connector-java-5.1.41.jar
或者在spark目錄下直接加載驅動
例如輸入:
spark-sql --driver-class-path /opt/spark/spark2.2/jars/mysql-connector-java-5.1.41.jar
緣由: spark的日誌級別設置爲了INFO。
解決辦法:
將日誌級別改爲WARN就好了。
進入到spark目錄/conf文件夾下,此時有一個log4j.properties.template文件,咱們執行以下命令將其拷貝一份爲log4j.properties,並對log4j.properties文件進行修改。
cp log4j.properties.template log4j.properties vim log4j.properties
將
log4j.rootCategory=INFO, console
改爲
log4j.rootCategory=WARN, console
在spark/bin 目錄下 修改spark-sql ,添加藍色的字體的內容。
export _SPARK_CMD_USAGE="Usage: ./bin/spark-sql [options] [cli option]" exec "${SPARK_HOME}" /bin/spark-submit -jars /opt/spark/spark1.6-hadoop2.4-hive/lib/spark-assembly-1.6.3-hadoop2.4.0.jar --class org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver "$@"
緣由:未輸入正確的命令,或者Hadoop未能正確運行
解決辦法:
首先檢查命名格式是否正確,而後檢查Hadoop是否成功運行。
org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions:
Tue Jul 19 16:36:05 CST 2016, null, java.net.SocketTimeoutException: callTimeout=60000, callDuration=79721: row 'testtable,,' on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=ubuntu,16020,1468916750524, seqNum=0
緣由:多是使用了主機名進行鏈接,而未載windows系統的hosts文件進行配置。
解決辦法:
1.確認本地和集羣服務之間的通訊沒有問題。
2.修改 C:\Windows\System32\drivers\etc\hosts 的文件,添加集羣的主機名和IP作映射。
例如:
192.169.0.23 master
192.169.0.24 slave1
192.169.0.25 slave2
緣由: 沒法鏈接元數據庫,可能沒有初始化元數據
解決辦法:初始化元數據
輸入: schematool -dbType mysql -initSchema
而後在輸入: hive
緣由:日誌文件衝突。
解決辦法: 移除其中的一個架包就能夠了。
例如:移除hive或hadooop相關的一個slf4j.jar就能夠;
緣由:沒有設置遠程鏈接權限。
解決方案:在hadoop/conf/core-site.xml 中添加以下部分,重啓服務便可:
<property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property>
緣由:可能hive未啓動或者配置未能正確配置
解決辦法:
1.查看服務是否啓動
輸入:
netstat -anp |grep 10000
2.查看hive / conf/hive-site.xml配置是否正確,是否添加了這些配置
<property> <name>hive.server2.thrift.port</name> <value>10000</value> </property> <property> <name>hive.server2.thrift.bind.host</name> <value>master</value> </property>
注: master是我配置主機的名稱,能夠替換成主機的IP。
3.確認配置沒有問題以後,輸入hive --service hiveserver2 以後,在使用java鏈接測試。
緣由: Hive的這個配置在1.0以後就廢除了。
解決辦法:
在hive / conf/hive-site.xml 去掉這個配置就好了
<property> <name>hive.metastore.local</name> <value>true</value> </property>
緣由:缺乏spark編譯的jar包
解決辦法:
我是使用的spark-hadoop-without-hive 的spark,若是使用的不是這種,能夠自行編譯spark-without-hive。
1.將spark/lib 目錄下的spark-assembly-1.6.3-hadoop2.4.0.jar 拷貝到hive/lib目錄下。
2.在hive/conf 中的hive-env.sh 設置該jar的路徑。
注:spark-assembly-1.6.3-hadoop2.4.0.jar 架包在spark-1.6.3-bin-hadoop2.4-without-hive 解壓包中.
下載地址:http://mirror.bit.edu.cn/apache/spark
緣由:在使用Hive on Spark 執行查詢命令的時候,出現這個錯誤。
解決辦法:
1.檢查hive和spark的版本是否正確,若是不相匹配,則配置相匹配的版本。
2.編輯hive/conf 目錄下的hive-site.xml 文件,添加
<property> <name>spark.master</name> <value>spark://hserver1:7077</value> </property>
緣由:這多是metastore_db文件夾已經存在;
解決辦法: 刪除該文件
org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.
Underlying cause: java.sql.SQLException : Access denied for user 'root'@'master' (using password: YES)
SQL Error code: 1045
緣由: 覺得數據庫鏈接用戶名密碼或權限問題,然而檢查hive/hive-site.xml配置,和mysql設置的用戶名和密碼以及權限,都沒問題。
解決辦法: 將hive/hive-site.xml鏈接數據庫的別名改爲ip地址就能夠了。
緣由:內存過小了。
解決辦法:將mr內存設置大一點
set mapred.reduce.tasks = 2000; set mapreduce.reduce.memory.mb=16384; set mapreduce.reduce.java.opts=-Xmx16384m;
緣由:多是zoopkeeper集羣未能成功配置以及相關的環境未配置好。
解決辦法:
Zoo.cfg完整的配置
dataDir=/opt/zookeeper/data dataLogDir=/opt/zookeeper/dataLog server.1=master:2888:3888 server.2=slave1:2888:3888 server.3=slave2:2888:3888
myid的配置爲 一、二、3