使用map reduce作业将hdfs文本文件转换为镶木地板格式

Pra*_*eep 3 java mapreduce parquet

我正在尝试使用java中的map reduce将hdfs文本文件转换为Parquet格式.老实说,我是这个的首发,我无法找到任何直接的参考.

转换应该是textfile - > avro ---> parquet ..?

rge*_*man 9

文本文件(无论是否为HDFS)没有固有的文件格式.使用Map/Reduce时,您需要一个Avro Schema和一个映射器函数来解析输入,以便您可以创建AvroGenericRecord.

您的mapper类看起来像这样.

public class TextToAvroParquetMapper
        extends Mapper<LongWritable, Text, Void, GenericRecord> {
    private GenericRecord myGenericRecord = new GenericData.Record(mySchema);

    @Override
    protected void map(LongWritable key, Text value, Context context) {
          // Parse the value yourself here,
          // calling "put" on the Avro GenericRecord,
          // once for each field.  The GenericRecord
          // object is reused for every map call.
          context.write(null, myGenericRecord);
    }
}
Run Code Online (Sandbox Code Playgroud)

输入键/值对类型是Hadoop的LongWritableText,并且输出键/值对类型Void(null键)和阿夫罗GenericRecord本身.

在该run方法中,Job照常设置配置,包括输入路径,输出路径和映射器类.将reduce任务数设置为0,因为这是一个仅限映射的作业.

job.setNumReduceTasks(0);
Run Code Online (Sandbox Code Playgroud)

将输出格式类设置为Parquet's AvroParquetOutputFormatclass,它将Avro GenericRecord您创建的s转换为Parquet柱状格式.它需要知道你的AvroSchema.

job.setOutputFormatClass(AvroParquetOutputFormat.class);
AvroParquetOutputFormat.setSchema(job, myAvroSchema);
Run Code Online (Sandbox Code Playgroud)

因为AvroParquetOutputFormat将Avro GenericRecord转换为Parquet Group对象,所以您需要将输出值类设置为Group(并将输出键类设置为Void,因为键都是null).

job.setOutputKeyClass(Void.class);
job.setOutputValueClass(Group.class);
Run Code Online (Sandbox Code Playgroud)

是的,转换是textfile - > Avro - > Parquet.您的map方法控制从文本文件到Avro AvroParquetOutputFormat的转换,并处理从Avro到Parquet的转换.