3 个驱动器从 Raid6 mdadm 中掉出来 - 重建?

pir*_*nic 5 ubuntu lvm mdadm software-raid raid6

我有一个带有 13x1TB 驱动器的 mdadm raid6 阵列。在 10 分钟内,这些驱动器中有 3 个从阵列中掉出......我们假设控制器卡的电缆坏了并更换了,但是现在我们需要将驱动器放回工作阵列中。

因为 md0 被标记为失败,所以我们删除了 mdadm 阵列并使用原始的 13 个驱动器创建了一个新的 md0。1 在重建期间再次失败,所以我们现在有一个降级的 md0。问题是 lvm 没有看到 mdadm 中存在的数组。我们可以做些什么来取回我们的数据?

$pvscan

PV /dev/sda5   VG nasbox   lvm2 [29.57 GiB / 0    free]
  Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0   ]
Run Code Online (Sandbox Code Playgroud)

$cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12]
      10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU]

unused devices: <none>
Run Code Online (Sandbox Code Playgroud)

我认为我们需要做的是让 lvm 检测 mdadm 阵列,以便我们可以挂载它,但是如果我在 LVM 中创建一个新的卷组,它将擦除阵列中的所有数据。

所以简单地说,我们如何从 md0 获取我们的数据...

更新:我们的一位系统管理员能够恢复 LVM 配置备份,因此它现在显示在 LVM 中,但是我们仍然无法安装驱动器以查看数据。也许坏分区表?

$pvscan

PV /dev/sda5   VG nasbox   lvm2 [29.57 GiB / 0    free]
PV /dev/md0    VG zeus     lvm2 [10.01 TiB / 4.28 TiB free]
Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0   ]
Run Code Online (Sandbox Code Playgroud)

$mount /dev/md0

mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
Run Code Online (Sandbox Code Playgroud)

Mik*_*kko 2

信息取自这篇文章,看看是否有帮助:http://www.linuxjournal.com/article/8874

pvscan显示存在 LVM 物理卷,但 LVM 卷组不一定处于活动状态。查看 的输出vgdisplay,应该类似于

--- Volume group ---
VG Name              zeus
System ID
Format               lvm2
[...]
Run Code Online (Sandbox Code Playgroud)

如果zeus卷组未显示,您可能需要通过 使其可用vgchange zeus -a y。然后,检查 的输出lvdisplay。这应该输出系统中的每个逻辑卷:

--- Logical volume ---
LV Name                /dev/zeus/volume_name
VG Name                zeus
LV Status              available
[etc...]
Run Code Online (Sandbox Code Playgroud)

并且您应该能够使用 挂载所需的卷mount /dev/zeus/volume_name /mnt/target