小编Raj*_*Raj的帖子

Hadoop:FSCK结果显示缺少副本

任何人都可以让我知道如何修复丢失的副本?

================================================== ==========================

总面积:3447348383 B.

总目标:120

文件总数:98

总块数(已验证):133(平均块大小25919912 B)

最小复制块:133(100.0%)

过度复制的块:0(0.0%)

重复不足的区块:21(15.789474%)

错误复制的块:0(0.0%)

默认复制因子:3

平均块复制:2.3834586

腐败的块:0

遗失的复制品:147(46.37224%)

数据节点数:3

机架数量:1

================================================== ==========================

根据无限指南,

损坏或丢失块是引起关注的最大原因,因为它意味着数据已丢失.默认情况下,fsck会保留包含损坏或丢失块的文件,但您可以告诉它对它们执行以下操作之一:

•使用-move选项将受影响的文件移动到HDFS中的/ lost + found目录.文件被分成连续块的链,以帮助您尝试的任何打捞工作.

•使用-delete选项删除受影响的文件.删除后无法恢复文件.

在这里我的问题是如何找出受影响的文件?我已经与Hive合作以获得所需的输出而没有任何问题.它会影响查询处理的性能/速度.

问候,

拉吉

hadoop hive hdfs hiveql

8
推荐指数
1
解决办法
1万
查看次数

标签 统计

hadoop ×1

hdfs ×1

hive ×1

hiveql ×1