在我的map-reduce作业中,我使用4个reducers来实现reducer作业.因此,通过这样做,最终输出将生成4个部分文件:part-0000 part-0001 part-0002 part-0003
我的问题是如何设置hadoop的配置只输出一个部分文件,尽管hadoop使用4个reducers工作?
这不是hadoop预期的行为.但是你可以MultipleOutputs在这里利用你的优势.创建一个命名输出并在所有reducers中使用它以在一个文件本身中获得最终输出.这是javadoc本身建议如下:
JobConf conf = new JobConf();
conf.setInputPath(inDir);
FileOutputFormat.setOutputPath(conf, outDir);
conf.setMapperClass(MOMap.class);
conf.setReducerClass(MOReduce.class);
...
// Defines additional single text based output 'text' for the job
MultipleOutputs.addNamedOutput(conf, "text", TextOutputFormat.class,
LongWritable.class, Text.class);;
...
JobClient jc = new JobClient();
RunningJob job = jc.submitJob(conf);
...
Run Code Online (Sandbox Code Playgroud)
作业配置使用模式是:
public class MOReduce implements
Reducer<WritableComparable, Writable> {
private MultipleOutputs mos;
public void configure(JobConf conf) {
...
mos = new MultipleOutputs(conf);
}
public void reduce(WritableComparable key, Iterator<Writable> values,
OutputCollector output, Reporter reporter)
throws IOException {
...
mos.getCollector("text", reporter).collect(key, new Text("Hello"));
...
}
public void close() throws IOException {
mos.close();
...
}
}
Run Code Online (Sandbox Code Playgroud)
如果您使用的是新mapreduceAPI,请参阅此处.
| 归档时间: |
|
| 查看次数: |
5618 次 |
| 最近记录: |