看到市面上不少書在講解Hadoop的時候都輕描淡寫的提到了HDFS的設置問題。大多采起的是默認設置,最多也就是設置一些副本數量之類。node
筆者在工做中遇到了這樣一種狀況:每次重啓系統以後,NameNode就會消失。oop
從新嘗試下面的命令:spa
1 hdfs namenode –format 2 sbin/start-all.sh
這樣確實可以恢復Hadoop的運行,可是HDFS上面的數據會所有丟失。這顯然不是咱們想看到的。code
仔細查找官方文檔,發現hdfs-site.xml裏面包含了HDFS的默認工做路徑,居然指向了」/tmp」!orm
添加下面的代碼到hdfs-site.xml,替換成你本身的工做路徑便可解決此問題。xml
1 <property> 2 <name>dfs.name.dir</name> 3 <value>/home/user/<user name>/hadoop_namedata</value> 4 </property>
最後,個人環境以下:
Ubuntu 14.10 x64
Hadoop 2.6.0