pir*_*nic 5 ubuntu lvm mdadm software-raid raid6
我有一个带有 13x1TB 驱动器的 mdadm raid6 阵列。在 10 分钟内,这些驱动器中有 3 个从阵列中掉出......我们假设控制器卡的电缆坏了并更换了,但是现在我们需要将驱动器放回工作阵列中。
因为 md0 被标记为失败,所以我们删除了 mdadm 阵列并使用原始的 13 个驱动器创建了一个新的 md0。1 在重建期间再次失败,所以我们现在有一个降级的 md0。问题是 lvm 没有看到 mdadm 中存在的数组。我们可以做些什么来取回我们的数据?
$pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ]
Run Code Online (Sandbox Code Playgroud)
$cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12]
10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU]
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
我认为我们需要做的是让 lvm 检测 mdadm 阵列,以便我们可以挂载它,但是如果我在 LVM 中创建一个新的卷组,它将擦除阵列中的所有数据。
所以简单地说,我们如何从 md0 获取我们的数据...
更新:我们的一位系统管理员能够恢复 LVM 配置备份,因此它现在显示在 LVM 中,但是我们仍然无法安装驱动器以查看数据。也许坏分区表?
$pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
PV /dev/md0 VG zeus lvm2 [10.01 TiB / 4.28 TiB free]
Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0 ]
Run Code Online (Sandbox Code Playgroud)
$mount /dev/md0
mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
Run Code Online (Sandbox Code Playgroud)
信息取自这篇文章,看看是否有帮助:http://www.linuxjournal.com/article/8874
pvscan显示存在 LVM 物理卷,但 LVM 卷组不一定处于活动状态。查看 的输出vgdisplay,应该类似于
--- Volume group ---
VG Name zeus
System ID
Format lvm2
[...]
Run Code Online (Sandbox Code Playgroud)
如果zeus卷组未显示,您可能需要通过 使其可用vgchange zeus -a y。然后,检查 的输出lvdisplay。这应该输出系统中的每个逻辑卷:
--- Logical volume ---
LV Name /dev/zeus/volume_name
VG Name zeus
LV Status available
[etc...]
Run Code Online (Sandbox Code Playgroud)
并且您应该能够使用 挂载所需的卷mount /dev/zeus/volume_name /mnt/target。
| 归档时间: |
|
| 查看次数: |
464 次 |
| 最近记录: |