Hadoop和Spark集羣中某臺工做機崩潰後如何重啓?node
工做機是hadoop集羣的datanode,Spark集羣的worker。ide
只須要在機器重啓後,oop
1、鏈接hadoop集羣spa
bin/hadoop-daemon.sh start datanode //啓動數據節點
bin/hadoop-daemon.sh start tasktracker //啓動任務管理器
此時再在master上使用 ./hadoop dfsadmin -report 是就會發現這些節點已經啓動起來 。orm
2、鏈接spark集羣hadoop
start-slave.sh spark://master:7077
it
ok了!spark