解決方案參考:Working with different versions of Hadoophtml
調整Druid集羣所在機器的ulimit
參考:CentOS修改ulimitjava
該問題存在兩個方面的問題:git
解決方案1. 參考:Working with different versions of Hadoop
在每一個數據定義文件中指定: demo:github
"tuningConfig" : { "type" : "hadoop", "partitionsSpec" : { "type" : "hashed", "targetPartitionSize" : 5000000 }, "jobProperties" : { "mapreduce.job.classloader": "true", "mapreduce.job.classloader.system.classes": "-javax.validation.,java.,javax.,org.apache.commons.logging.,org.apache.log4j.,org.apache.hadoop." }, "ignoreInvalidRows" : true } }
解決方案2:參考Druid.io 部署&使用文檔apache
druid.indexer.runner.javaOpts=-server -Xmx2g -Duser.timezone=UTC -Dfile.encoding=UTF-8 -Djava.util.logging.manager=org.apache.logging.log4j.jul.LogManager -Dhadoop.mapreduce.job.classloader=true
數據文件須要放置在HDFS中json
Druid集羣配置
druid.io 從本地批(batch)導入數據與從hdfs 批導入數據的index task配置
druid.io問題記錄jvm