java.io.IOException: No space left on device 錯誤

今天碰到比較奇怪的問題:java

7/05/14 19:20:24 INFO util.Utils: Fetching http://192.168.31.160:33039/jars/spark_study_java-0.0.1-SNAPSHOT-jar-with-dependencies.jar to /tmp/spark-446068a4-aaa4-4277-b009-908bf0d4ecac/executor-dcc3175b-7d19-4485-81e1-bf31a83a66b4/spark-3f849149-bcfb-44a2-90f6-c71f31098c30/fetchFileTemp8558073324247536081.tmp
17/05/14 19:20:24 ERROR executor.Executor: Exception in task 0.0 in stage 0.0 (TID 0)
java.io.IOException: No space left on device
    at java.io.FileOutputStream.writeBytes(Native Method)
    at java.io.FileOutputStream.write(FileOutputStream.java:345)
    at org.apache.spark.util.Utils$$anonfun$copyStream$1.apply$mcJ$sp(Utils.scala:286)
    at org.apache.spark.util.Utils$$anonfun$copyStream$1.apply(Utils.scala:252)
    at org.apache.spark.util.Utils$$anonfun$copyStream$1.apply(Utils.scala:252)
    at org.apache.spark.util.Utils$.tryWithSafeFinally(Utils.scala:1206)
    at org.apache.spark.util.Utils$.copyStream(Utils.scala:292)
    at org.apache.spark.util.Utils$.downloadFile(Utils.scala:415)
    at org.apache.spark.util.Utils$.doFetchFile(Utils.scala:557)
    at org.apache.spark.util.Utils$.fetchFile(Utils.scala:356)

老是報錯,試了網上說的apache

第一種:修改配置文件spark-env.sh,把臨時文件引入到一個自定義的目錄中去便可app

export SPARK_LOCAL_DIRS=/home/utoken/datadir/spark/tmp測試

第二種:偷懶方式,針對tmp目錄不啓用tmpfs,直接修改/etc/fstabfetch

 

幾種解決辦法也仍是不行,後來經過df -h 查看兩個work節點 /dev/mapper/vg_spark1-lv_root 都佔滿了,這是怎麼回事,通過查找,原來是本身不斷測試程序,.jar 包不斷上傳到work節點上,因爲.jar 是帶有依賴的,因此比較大。不斷上傳使work【/usr/local/spark-1.5.1/work】節點的目錄空間滿了。spa

 

 

 

清除之後,完美運行。scala

注:使用du -sh * 命令也能夠列出當前文件以及文件夾的大小。這個命令要注意:sh與*以前要有個空格的。3d

相關文章
相關標籤/搜索