針對啓動hadoop後, 再啓動spark , slave節點datanode消失問題

Master啓動後 ,slave1和slave2 DataNode節點沒有啓動的問題   先停掉hadoop /usr/local/src/hadoop-2.6.5/sbin/stop-all.sh   master節點和slave1, salve2節點上 下面3個文件下清空 注意: 三個節點同時清空,不然白費 mkdir /usr/local/src/hadoop-2.6.5/tmp mkdir
相關文章
相關標籤/搜索