Hadoop和Spark集羣中某臺工做機崩潰後如何重啓?

Hadoop和Spark集羣中某臺工做機崩潰後如何重啓?node


工做機是hadoop集羣的datanode,Spark集羣的worker。ide


只須要在機器重啓後,oop

1、鏈接hadoop集羣spa

bin/hadoop-daemon.sh start datanode     //啓動數據節點
bin/hadoop-daemon.sh start tasktracker  //啓動任務管理器
此時再在master上使用 ./hadoop dfsadmin -report   是就會發現這些節點已經啓動起來 。orm


2、鏈接spark集羣hadoop

start-slave.sh  spark://master:7077
it

ok了!spark

相關文章
相關標籤/搜索