要创建MapReduce作业,您可以使用旧org.apache.hadoop.mapred
包或org.apache.hadoop.mapreduce
Mapper和Reducers,Jobs ... 的新包.第一个已被标记为已弃用但同时也已恢复.现在我想知道使用旧的mapred包或新的mapreduce包来创建作业以及为什么更好.或者它只取决于您是否需要像旧的mapred包中可用的MultipleTextOutputFormat之类的东西?
根据Hadoop:The Definitive Guide.
新API支持"推"和"拉"式迭代.在这两个API中,键值记录对被推送到映射器,但此外,新API允许映射器从map()方法中提取记录.减速机也是如此."拉"样式如何有用的一个例子是批量处理记录,而不是逐个处理.
有没有人在Map/Reduce函数中提取数据?我对API或示例感兴趣.