一、在從新編譯hadoop後可能會形成版本不一致的現象。 最近幾個星期一直在修改Hadoop的計算能力調度算法,遇到了這樣那樣的問題。 我修改的版本是hadoop-0.20.2 第一步: 將hadoop的源碼加載到eclipse中配置使用ant編譯 第二步: 根據須要修改源碼 第三步: 使用ant編譯修改內容,這裏要提醒的就是要保證編譯平臺的JDK和運行平臺的JDK相同 ant編譯的方法是:首先到$HadoopHome/src/contrib/capacity-scheduler目錄下 直接輸入ant就能夠編譯,編譯成功後會提示生產的JAR文件在$HadoopHome/build/contrib/capacity-scheduler 中。 重要的是若是修改了capacity-scheduler外的其餘內容(主要在MapReduce中)也須要將修改後的整個Hadoop編譯 並且要在編譯capacity-scheduler以前進行編譯。編譯整個hadoop會在build文件夾下看到hadoop-0.20.2-dev-capacity-scheduler.jar 第四步: 將hadoop-0.20.2-dev-capacity-scheduler.jar重命名爲hadoop-0.20.2-capacity-scheduler.jar 以及將hadoop-${version}-capacity-scheduler.jar從新名爲hadoop-0.20.2-capacity-scheduler.jar 覆蓋集羣中響應的JAR從新啓動集羣就能夠了以上是成功的步驟,可是在整個過程當中總會出現錯誤,下面具體分析一下我遇到的錯誤: 我是在windows 下編譯的在Ubuntu中搭建的集羣,開始的時候兩個平臺的JDK不一致, 致使了:java.lang.UnsupportedClassVersionError 的錯誤 因此要保證JDK一致 有時候會遇到org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible build versions: namenode BV = ; datanode BV = 911707 這個錯誤的緣由是由於datanode的版本和NameNode的版本不一致。我將生成的hadoop-0.20.2-dev-capacity-scheduler.jar重命名後覆蓋到DataNode的$HadoopHome 中 二、獲取年最大溫度值 public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{ public void map(Object key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String year = line.substring(15, 19); int tmp; if(line.charAt(25)=='+'){ tmp = Integer.parseInt(line.substring(26,30)); System.out.println(tmp); }else{ tmp = Integer.parseInt(line.substring(25,30)); System.out.println(line.substring(25, 30)); } context.write(new Text(year), new IntWritable(tmp)); } } public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> { public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int maxValue = 0; while(values.iterator().hasNext()){ maxValue = Math.max(maxValue, values.iterator().next().get()); } context.write(key, new IntWritable(maxValue)); } } 異常: java.lang.StringIndexOutOfBoundsException: String index out of range: 19 at java.lang.String.substring(String.java:1907) at com.zzg.test.GetMaxTemp$TokenizerMapper.map(GetMaxTemp.java:21) at com.zzg.test.GetMaxTemp$TokenizerMapper.map(GetMaxTemp.java:1) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:764) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:370) at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:212) 這個異常緣由是由於數據文件中有空行。