hadoop錯誤Could not obtain block blk_XXX_YYY from any node:java.io.IOException:No live nodes contain c

錯誤:java

    10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retrynode

緣由:url

    Datanode 有一個同時處理文件的上限. 這個參數叫 xcievers。若是沒有這一項配置,你可能會遇到奇怪的失敗。你會在Datanode的日誌中看到xcievers exceeded,可是運行起來會報 missing blocks錯誤日誌

解決方法:code

    在conf/hdfs-site.xml裏面的添加以下配置xml

    <property>blog

        <name>dfs.datanode.max.xcievers</name>ci

        <value>4096</value>get

        <dedication> Datanode 有一個同時處理文件的上限,至少要有4096</dedication>博客

    </property>

 

若是,您認爲閱讀這篇博客讓您有些收穫,不妨點擊一下右下角的【推薦】。
若是,您但願更容易地發現個人新博客,不妨點擊一下左下角的【關注我】。
若是,您對個人博客所講述的內容有興趣,請繼續關注個人後續博客,我是【劉超★ljc】。

本文版權歸做者和博客園共有,歡迎轉載,但未經做者贊成必須保留此段聲明,且在文章頁面明顯位置給出原文鏈接,不然保留追究法律責任的權利。

相關文章
相關標籤/搜索