Rob*_*Rob 8 linux software-raid bad-sectors raid-5 lvm
在过去的几周里,我一直在对这个主题进行大量研究——我认为我已经接近完成我的康复,至少是尽可能多的。长话短说,我只会描述问题,而不填写每一个微小的技术细节。
假设您有多个 RAID-5 阵列,每个阵列有 8 个磁盘,然后将它们组合成一个 LVM 逻辑卷。然后其中一个磁盘在其中一个阵列中死亡,并且在重建期间,您会在该阵列中的第二个磁盘上遇到不可恢复的读取错误。当然,没有备份。
我已经使用 URE 将驱动器中的数据恢复到新驱动器上,只有 5K 的数据被损坏,所有数据都分组到一个非常小的磁盘区域中。我还假设一旦我使用 ddrescue 的副本重新组装那个 MD 设备,我会将我的数据丢失的大小乘以我的阵列中的非奇偶校验驱动器的数量(因此 35K 的数据丢失),作为奇偶校验使用这些块对条带的计算将是不正确的。
我已经阅读并理解了http://smartmontools.sourceforge.net/badblockhowto.html 上的程序,用于确定哪些文件会被这种情况损坏,但我的问题是弄清楚哪些块将在md 重建用作 debugfs 的输入。弄清楚 md 和 lvm 存储元数据的所有偏移量也不会很有趣,但我想我可以处理那部分。
我可以将所有坏块数乘以 7,然后假设每个坏块后面的 6 个块也是坏块,然后按照上面链接的指南中的 LVM 说明进行操作吗?
并且要明确 - 我不关心修复或重新映射指南描述的坏块,我已经更换了磁盘,并将让 md 处理这种事情。我只想知道 ext4 文件系统上的哪些文件受到了影响。
小智 2
您还在寻求这方面的帮助吗?找到受影响文件的一种方法是将文件系统 tar 到 /dev/null。任何包含错误的文件都会被 tar 投诉。就像是:
tar cf /dev/null /file/system/to/check
可能会为你做。
| 归档时间: |
|
| 查看次数: |
1196 次 |
| 最近记录: |