多个Reducer如何在Hadoop中仅输出一个部分文件?

JoJ*_*oJo 4 hadoop

在我的map-reduce作业中,我使用4个reducers来实现reducer作业.因此,通过这样做,最终输出将生成4个部分文件:part-0000 part-0001 part-0002 part-0003

我的问题是如何设置hadoop的配置只输出一个部分文件,尽管hadoop使用4个reducers工作?

Ama*_*mar 8

这不是hadoop预期的行为.但是你可以MultipleOutputs在这里利用你的优势.创建一个命名输出并在所有reducers中使用它以在一个文件本身中获得最终输出.这是javadoc本身建议如下:

 JobConf conf = new JobConf();

 conf.setInputPath(inDir);
 FileOutputFormat.setOutputPath(conf, outDir);

 conf.setMapperClass(MOMap.class);
 conf.setReducerClass(MOReduce.class);
 ...

 // Defines additional single text based output 'text' for the job
 MultipleOutputs.addNamedOutput(conf, "text", TextOutputFormat.class,
 LongWritable.class, Text.class);;
 ...

 JobClient jc = new JobClient();
 RunningJob job = jc.submitJob(conf);

 ...
Run Code Online (Sandbox Code Playgroud)

作业配置使用模式是:

public class MOReduce implements
   Reducer<WritableComparable, Writable> {
 private MultipleOutputs mos;

 public void configure(JobConf conf) {
 ...
 mos = new MultipleOutputs(conf);
 }

 public void reduce(WritableComparable key, Iterator<Writable> values,
 OutputCollector output, Reporter reporter)
 throws IOException {
 ...
 mos.getCollector("text", reporter).collect(key, new Text("Hello"));
 ...
 }

 public void close() throws IOException {
 mos.close();
 ...
 }

 }
Run Code Online (Sandbox Code Playgroud)

如果您使用的是新mapreduceAPI,请参阅此处.