Hadoop批處理做業提交問題運行監控--問題解決

1. Slave節點NodeManager啓動,可是datanode未啓動node

首先檢查datanode啓動節點上hadoop-2.7.2/hdfs/data/current/VERSION中的clusterid是否和namenode同目錄下clusterid一致centos

而後在看storageid是否存在app

2. 用Hibench提交做業出現的問題oop

du: `hdfs://centos35:9000/HiBench/Sort/Input': No such file or directoryspa

本人批量流式sparkstreaming轉過來的,因此忽略了一點,批量流式的數據是源源不斷到來的,而批處理做業的數據是須要指定數據所在的文件夾,且保證做業提交時文件夾中有數據。.net

數據發生器啓動./prepare後會向系統提交一個產生隨機數的做業,這個做業的輸出數據即便咱們sort文件的輸入數據,所以,須要等到隨機數做業執行完再提交sort做業。日誌

3. 學會查看log文件,找到問題server

因爲log文件會不少,這時候能夠使用ls --full-time看看每一個文件的時間,來肯定哪個纔是咱們要查看的文件。blog

4. 監控頁面hadoop

localhost:8088 yarn

localhost:50070 hdfs

jobhistory節點的端口號:19888能夠查看map數

5. 監控信息的獲取

可從監控頁面看到一些信息,可是還須要從log日誌中獲取更細節的信息,配置參考https://blog.csdn.net/lisongjia123/article/details/78639058

sbin/mr-jobhistory-daemon.sh start historyserver在namenode節點開啓jobhistory服務

日誌位置在namenode的hadoop文件夾下logs裏存儲

或輸入指令 : yarn logs -applicationId application_1542795109277_0004

監控頁面端口號:19888

container日誌在/data/yarn/logs/jobid/syslog中存儲

aggregatelog所在位置是hdfs,不是對應的物理節點位置,hdfs dfs -get /tmp/aggregate-log /home/zc/data拉取到本地

相關文章
相關標籤/搜索