hadoop錯誤DataXceiver error processing WRITE_BLOCK operation

錯誤:node

    DataXceiver error processing WRITE_BLOCK operationurl

緣由:code

    文件操做超租期,實際上就是data stream操做過程當中文件被刪掉了。xml

解決辦法:blog

    修改hdfs-site.xml (針對2.x版本,1.x版本屬性名應該是:dfs.datanode.max.xcievers):ci

    <property>get

        <name>dfs.datanode.max.transfer.threads</name>           博客

        <value>8192</value>it

    </property>io

    拷貝到各datanode節點並重啓datanode便可

 

若是,您認爲閱讀這篇博客讓您有些收穫,不妨點擊一下右下角的【推薦】。
若是,您但願更容易地發現個人新博客,不妨點擊一下左下角的【關注我】。
若是,您對個人博客所講述的內容有興趣,請繼續關注個人後續博客,我是【劉超★ljc】。

本文版權歸做者和博客園共有,歡迎轉載,但未經做者贊成必須保留此段聲明,且在文章頁面明顯位置給出原文鏈接,不然保留追究法律責任的權利。

相關文章
相關標籤/搜索