小编Lui*_*mon的帖子

关于Hadoop和压缩输入文件的基本问题

我已经开始研究Hadoop了.如果我的理解是正确的,我可以处理一个非常大的文件,它会分裂到不同的节点,但是如果文件被压缩,那么文件就无法分割,而且需要由单个节点处理(有效地破坏了优势)运行mapreduce ver并行机器集群).

我的问题是,假设上述内容是正确的,是否可以手动将固定大小的块或每日块拆分大文件,压缩它们然后传递压缩输入文件列表以执行mapreduce?

compression hadoop

19
推荐指数
3
解决办法
1万
查看次数

标签 统计

compression ×1

hadoop ×1