測試使用Hive時, select * from xx是正常的
select count(*) from xx 時卡在了 kill command node
當時沒截圖, 網上找了張圖,大概是這樣的微信
所以考慮是否是 MapReduce 有問題
因此執行Hadoop 自帶的wordcount測試MapReduce
發現結果卡在了Submit提交任務?記不清了oop
因而經過 172.17.0.2:8088 進入hadoop的後臺管理頁面 兩個Unhealthy datanode (又盜了幾張圖,對不起!)測試
此時再去nodeManager的日誌中排查具體緣由spa
刪除磁盤上一些文件騰出空間
重啓hadoop 恢復正常了 Mapreduce操做正常日誌