标签: raid1

RAID1:如何使标记为“已删除”的驱动器“失败”?

我有(有)一个 RAID 1 阵列(2 个磁盘镜像),其中一个磁盘 sda 出现故障。所以我用一个新磁盘替换了坏磁盘,但似乎被困在如何让第二个驱动器备份并作为阵列的一部分运行。

系统运行的是Ubuntu Server 9.04,配置如下:

MD0 => sda1,sdb1

MD1 => sda3,sdb3

MD2 => sda2,sdb2

 mdadm --detail /dev/md0
Run Code Online (Sandbox Code Playgroud)

显示两个驱动器:

0 /dev/sdb1 "Active Sync"

1 [nothing] "Removed"
Run Code Online (Sandbox Code Playgroud)

MD1 和 MD2 看起来一样。

我发现的教程说使用以下命令将每个分区标记为失败:

mdadm --manage /dev/md0 --fail /dev/sda1
Run Code Online (Sandbox Code Playgroud)

但是,由于驱动器不在那里,我得到:

mdadm: cannot find /dev/sda1: No such file or directory
Run Code Online (Sandbox Code Playgroud)

我可以跳过失败的步骤吗?或者是否有其他方法可以使不再存在的分区失败?或者,如果我将分区表从旧驱动器复制到新驱动器,它会自动选择它是替代品吗?

我是新手,不想搞砸。:)

raid ubuntu ubuntu-9.04 raid1

6
推荐指数
1
解决办法
5567
查看次数

RAID 如何检测故障硬盘?

在过去的 3 天里,我一直在查看 Raid 级别。并且一直在权衡突袭控制器硬件/软件的利弊。我知道 RAID 不是一种备份解决方案,我对它非常满意,但仍然存在一个问题。

RAID 控制器(甚至 Raid 1 到 Raid 6)如何实际检测到硬盘驱动器出现故障。我所做的研究表明,大多数常见的硬盘驱动器制造商在其硬盘驱动器设计中使用 ECC,该设计旨在防止 1 位故障到 3 位的程度。

虽然在考虑这一点时,假设您有 Raid (1) 和两个相同的硬盘驱动器。假设从驱动器 0 读取数据,同时从驱动器 1 读取数据。虽然驱动器 1 向 Raid 控制器报告 ECC 读取失败。

现在这是一个大问题,对于硬件突袭,突袭控制器会做什么?它从硬盘收到读取失败的信号。它可以报告硬盘驱动器有故障并需要更换。

Raid 控制器是否会寻找不同的硬盘驱动器以获取数据,直到从驱动器成功读取数据。(是的,驱动器可以报告读取正确,但数据仍然可能损坏,并且 RAID 在读取时不会检查极性或 ECC)

raid raid5 raid1

6
推荐指数
1
解决办法
5441
查看次数

拔下驱动器会模拟驱动器故障吗?

我刚刚设置了一个 RAID 1 阵列,镜像了 2 个 2tb 驱动器。

我想知道如果失败会发生什么。

拔掉其中一个插头是有效的测试吗?

我正在使用 asus M4A89TD pro 系列主板的板载控制器。

谢谢,布莱克

hardware raid hardware-raid raid1

6
推荐指数
2
解决办法
1379
查看次数

mdadm:热删除失败...

我的 RAID1 已降级,我需要替换 /dev/sdb。但是,我可以将 /dev/sdb5(在 /dev/md1 中)标记为失败并将其删除,但我不能对 /dev/sdb1(安装在 / 上的 /dev/md0)执行相同的操作:

root@kes:~# mdadm /dev/md0 --fail /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0

root@kes:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Wed Apr  7 03:00:39 2010
     Raid Level : raid1
     Array Size : 975185536 (930.01 GiB 998.59 GB)
  Used Dev Size : 975185536 (930.01 GiB 998.59 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon …
Run Code Online (Sandbox Code Playgroud)

linux raid mdadm raid1

6
推荐指数
1
解决办法
8108
查看次数

如何从 mdadm RAID1 中删除已删除的设备?

我不得不更换我的 RAID1 中的两个硬盘。添加两个新分区后,旧分区仍然显示为已删除,而新分区仅作为备用添加。我没有成功删除标记为removed的分区。

这是有问题的RAID。请注意状态已删除的两个设备(0 和 1)。

$ mdadm --detail /dev/md1

mdadm: metadata format 00.90 unknown, ignored.
mdadm: metadata format 00.90 unknown, ignored.
/dev/md1:
        Version : 00.90
  Creation Time : Thu May 20 12:32:25 2010
     Raid Level : raid1
     Array Size : 1454645504 (1387.26 GiB 1489.56 GB)
  Used Dev Size : 1454645504 (1387.26 GiB 1489.56 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time …
Run Code Online (Sandbox Code Playgroud)

raid mdadm raid1

6
推荐指数
2
解决办法
2万
查看次数

无法从 LVM2 raid1 镜像中删除故障设备

我的 LVM raid1 逻辑卷中的三个磁盘之一出现故障。(实际上这是一个糟糕的实验)。该卷是纯 LVM 卷raid1(不,不是 LVM mirror),没有任何 mdadm / fakeraid。

问题仅在重新启动时才意识到,设备完全丢失。由于我还有两个健康的磁盘,我想暂时将该卷用作双向 raid1,稍后再更换坏磁盘。但是,我无法从卷中删除丢失的设备。

这是有关拓扑的基本信息。卷组是vgQ3,而逻辑卷是lvRAID1

    #lvm pvs | grep vgQ3
      Couldn't find device with uuid vG3BbG-ap9H-iYGg-qfE2-R13Z-rLJI-AJcAv0.
      /dev/sdb2      vgQ3   lvm2 a--   79.31g 17.91g  
      /dev/sdc2      vgQ3   lvm2 a--   79.31g 17.91g  
      unknown device vgQ3   lvm2 a-m   79.31g 17.91g

    # lvm lvs -a -o +devices | grep vgQ3
      Couldn't find device with uuid vG3BbG-ap9H-iYGg-qfE2-R13Z-rLJI-AJcAv0.
      lvRAID1            vgQ3   rwi---r-p  61.39g   lvRAID1_rimage_0(0),lvRAID1_rimage_1(0),lvRAID1_rimage_2(0)
      [lvRAID1_rimage_0] vgQ3   Iwi---r--  61.39g   /dev/sdc2(1)                                               
      [lvRAID1_rimage_1] vgQ3   Iwi---r--  61.39g …
Run Code Online (Sandbox Code Playgroud)

hardware linux lvm raid1 ubuntu-14.04

6
推荐指数
1
解决办法
1621
查看次数

如何在 Debian 8.0.0 下启动时自动启动降级软件 RAID1?

如果您从阵列中移除组件 HDD,它会掉入“(initramfs)”下的“busy box”外壳,并在 RAID1 阵列变为“非活动状态”时显示类似于“无法安装根设备”的内容。

可以使用以下方法启动它:

(initramfs): mdadm --run /dev/md0
(initramfs): exit
Run Code Online (Sandbox Code Playgroud)

之后,它使用启动的 RAID1 正常启动(文件系统在 RAID1 阵列上),并且将继续正常启动,直到您移除另一个驱动器(在这种情况下它会完全相同)。

Google 使用“ BOOT_DEGRADED=true ”吐出了一堆关于 UBUNTU 的帖子,但这对 DEBIAN 不起作用。

还有一篇关于使用“ md-mod.start_dirty_degraded=1 ”作为内核映像的引导参数的帖子。我试过在 GRUB 菜单选项中传递它,但无济于事。

可能有一些东西可以解释它,但我是一个新手来理解:(

有任何想法吗?

linux kernel raid1 degraded

6
推荐指数
1
解决办法
8521
查看次数

ZFS 可以自动镜像单个磁盘池吗?

我正准备向我的家庭网络添加另一台服务器。我目前有一个存储驱动器。我想添加另一个驱动器来镜像第一个驱动器,但在几周到一个月内无法购买第二个驱动器。我想在镜像存储驱动器上使用 ZFS。我是否可以开始将数据复制到单个存储驱动器,然后添加第二个驱动器,然后让 ZFS 将第一个驱动器的数据复制到镜像中的第二个驱动器?

raid zfs mirror raid1

6
推荐指数
1
解决办法
3328
查看次数

有故障的 RAID1 磁盘现在显示为外部

我有一个戴尔 R320,它在 RAID1 阵列中有两个物理驱动器。RAID 控制器是 PERC H310 Mini。

在日常维护期间,我发现其中一个显示为故障。我不得不重新启动服务器,现在以前的故障显示为外来的(但没有故障)。

不管怎样,我都会更换驱动器,但我不确定在物理更换出现故障的驱动器后该怎么做。

当我创建 RAID 阵列时,我是通过 RAID 实用程序作为启动 (BIOS) 序列的一部分来完成的。

我现在可以通过 OMSA 重建阵列吗?如果是,执行此操作的过程是什么?显然,我担心执行此任务时会丢失数据。

更换到位后,我可以热插拔有故障的“外来”磁盘吗?或者我是否需要关闭服务器电源并离线更换,然后重新启动?

当前在“虚拟磁盘”下,C 驱动器(使用 RAID 阵列)因此显示为“降级”(正常)。

我在任何地方都没有看到任何“重建阵列”选项,这本来是我的第一个选项,尽管这可能是因为我尚未更换驱动器并且系统认为它有问题?

这些是控制器为我提供的选项: 在此处输入图片说明

鉴于上述信息,希望任何帮助我成功重建数组的指针。

谢谢。


更新:

在“外部配置”下,我发现了这个:

PERC H310 Mini:导入/恢复外部配置

说明:导入/恢复外部配置任务导入外部虚拟磁盘并尝试恢复处于故障或降级状态的虚拟磁盘。某些情况(例如不兼容的 RAID 级别或不完整的磁盘组)可能会阻止导入或恢复外部虚拟磁盘。导入操作会导入所有外部虚拟磁盘,以便它们可以由 Storage Management 进行管理。当虚拟磁盘驻留在从另一个控制器移出的物理磁盘上时,它就是外部磁盘。恢复操作尝试将降级、失败或丢失的虚拟磁盘恢复到正常状态。由于断电、电缆连接错误或其他故障而失去与控制器的通信后,虚拟磁盘可能处于降级、故障或丢失状态。恢复操作完成后,重建或后台初始化可能会自动启动。恢复后虚拟磁盘数据可能不一致。在导入/恢复外部配置任务完成后,您应该始终验证虚拟磁盘数据。你确定你要继续吗?

这是我应该做的吗?

dell raid1

6
推荐指数
1
解决办法
2494
查看次数

NAS 设备声称 RAID 中的驱动器已降级,但 SMART 表示没问题

我有一个 Synology DS213,在 RAID 1 中有两个 600GB 驱动器。

昨晚设备报告说我的第二个驱动器性能下降,我应该更换它。当我进行广泛的 SMART 测试时,结果表明驱动器没问题。

我如何确认驱动器实际上是坏的?是否有任何情况下降级的驱动器是好的驱动器,而实际上是另一个驱动器是坏的?

raid network-attached-storage raid1 degraded

5
推荐指数
1
解决办法
4500
查看次数