查看start-all.sh腳本 node
1.1 此shell腳本僅僅在主節點執行運行,打開start-all.sh,咱們能夠看到這樣一行註釋 shell
#Start all hadoop daemons. Run this on master node. oop
1.2 以下圖,咱們能夠看到,首先啓動的是hdfs文件系統,而後才啓動mapreduce. this
1.3 從上面,能夠看到啓動hdfs文件系統是調用的start-dfs.sh,而啓動mapreduce則調用的是start-mapred.sh.歸根節點也能夠當作是分別啓動的. 日誌
查看start-dfs.sh 進程
2.1 此腳本也是運行在hdfs文件系統主這節點上面,咱們打開其中的腳本執行文件,能夠看到下面這句. hadoop
# Run this on master node. ast
2.2 看下面圖中兩行註釋所示,表示,若是datanode在namenode以前啓動,將會在datanode日誌中有一些鏈接namenode的錯誤信息.由於datanode接不到namenode,而下面三項則分別表示namenode,datanode和secondarynamenode三項守護進程的啓動,也代表了hdfs守護進程的順序.一樣的也是和start-all.sh同樣的,他也是分別調用不一樣的啓動腳本,來啓動固定的守護進程.其中的最後一項啓動secondarynamenode節點有點不一樣,它會指定在那些機器上面的文件系統輔助節點啓動. map
其它的啓動腳本的也都差很少,就很少說了.hadoop啓動方式大概也就都是這樣.本身能夠去看看相關的啓動腳本. im