org.apache.hadoop.ipc.Client: Retrying connect to server異常的解決

檢查發現是DataNode一直鏈接不到NameNode。html

檢查各個節點在etc/hosts中的配置是否有127.0.1.1 xxxxxx。若是有把其屏蔽或者刪除,重啓各節點便可。node

緣由:127.0.1.1是debian中的本地迴環。這個形成了hadoop解析出現問題。這個設置應該是在作僞分佈式的hadoop集羣的時候,留下來的。
分佈式

 

若是照上面的方法仍是出現一樣的問題,或者etc/hosts目錄並無127.0.1.1的設置的話。oop

那麼能夠在conf/core-site.xml (0.19.2版本的爲conf/hadoop-site.xml)中增長如下內容
  code

<property>
       <name>hadoop.tmp.dir</name>
       <value>/var/log/hadoop/tmp</value>
       <description>A base for other temporary directories</description>
  </property>


重啓hadoop後,從新格式化namenode便可。
xml

 

緣由是:hadoop默認配置是把一些tmp文件放在/tmp目錄下,重啓系統後,tmp目錄下的東西被清除,因此報錯htm

相關文章
相關標籤/搜索