标签: mdadm

如何中断软件raid重新同步?

我想中断 debian 挤压软件raid 上正在运行的重新同步操作。(这是常规的计划比较重新同步。在这种情况下,raid 阵列仍然是干净的。不要将其与磁盘发生故障并被替换后的重建混淆。)

如何在运行时停止此计划的重新同步操作?另一个突袭阵列是“重新同步挂起”,因为它们都在同一天(周日晚上)一个接一个地接受检查。我想彻底停止这个周日晚上的重新同步。

[编辑:sudo kill -9 1010不停止,1010 是 md2_resync 进程的 PID]

我还想知道如何控制重新同步之间的间隔和直到下一次的剩余时间。

[Edit2:我现在所做的是使重新同步变得非常慢,所以它不再打扰:

sudo sysctl -w dev.raid.speed_limit_max=1000
Run Code Online (Sandbox Code Playgroud)

取自http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html

在夜间,我会将其设置回较高的值,以便重新同步可以终止。

这种解决方法适用于大多数情况,但知道我问的是否可行会很有趣。例如,似乎不可能增长数组,而它正在重新同步或重新同步“待定”]

linux raid synchronization mdadm software-raid

52
推荐指数
6
解决办法
12万
查看次数

创建新阵列后恢复 RAID 5 数据而不是重复使用

伙计们请帮忙 - 我是一个手头严重头痛的新手(完美的风暴情况)。

我的 ubuntu 11.04 上有一个 3 1tb 硬盘,配置为软件 raid 5。数据每周都被复制到另一个独立的计算机硬盘驱动器上,直到完全失败并被丢弃。几天前,我们停电了,重新启动后我的盒子无法安装突袭。我以无限的智慧进入

mdadm --create -f...
Run Code Online (Sandbox Code Playgroud)

命令而不是

mdadm --assemble
Run Code Online (Sandbox Code Playgroud)

直到之后才注意到我所做的讽刺。它启动了阵列降级并继续构建和同步它,耗时约 10 小时。回来后我看到阵列成功启动并运行,但raid没有

我的意思是单个驱动器已分区(分区类型f8),但md0设备未分区。惊恐地意识到我做了什么,我试图找到一些解决方案。我只是祈祷--create没有覆盖硬盘驱动器的全部内容。

有人可以帮我解决这个问题 - 驱动器上的数据非常重要且独一无二,大约 10 年的照片、文档等。

是否有可能通过以错误的顺序指定参与的硬盘驱动器可以mdadm覆盖它们?当我做

mdadm --examine --scan 
Run Code Online (Sandbox Code Playgroud)

我得到类似的东西 ARRAY /dev/md/0 metadata=1.2 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b name=<hostname>:0

有趣的是,过去的名称是“raid”,而不是附加了 :0 的主机 hame。

这是“已消毒”的配置条目:

DEVICE /dev/sdf1 /dev/sde1 /dev/sdd1

CREATE owner=root group=disk mode=0660 auto=yes

HOMEHOST <system>

MAILADDR root


ARRAY /dev/md0 metadata=1.2 name=tanserv:0 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b


Here is the output from mdstat

cat /proc/mdstat 
Personalities : [linear] [multipath] …
Run Code Online (Sandbox Code Playgroud)

mdadm data-recovery raid5

36
推荐指数
3
解决办法
2万
查看次数

自愈文件系统对一般用途有多大好处?

我最近研究了用于数据冗余和可用性的高级文件系统(Btrfs、ZFS),并对它们提供的附加功能感兴趣,尤其是它们针对数据损坏的“自我修复”功能。

但是,我认为我需要退后一步,尝试了解与传统的 mdadm-Raid1 + 相比,对于一般家庭/SMB 使用而言,这种好处是否超过了它们的缺点(Btrfs 错误和未解决的问题以及 ZFS 可用性和性能影响) Ext4 解决方案。无论哪种方式都可以使用镜像备份。

假设我有几个文件服务器用于存档目的并且资源有限,但是有 ECC 内存和稳定的电源。

  1. 我什至遇到实际数据损坏导致文件不可读的可能性有多大?如何?
  2. Ext4 或系统文件管理器是否可以在复制/移动操作中检测到​​数据错误,至少让我意识到问题所在?
  3. 如果其中一个 madam-Raid1 驱动器因一个驱动器有坏扇区而保存不同的数据,会发生什么情况?我是否仍然能够检索正确的文件,或者阵列是否无法确定哪个文件是正确的并完全丢失它?

raid filesystems mdadm software-raid data-integrity

34
推荐指数
3
解决办法
6616
查看次数

将 Linux 软件 RAID 1 扩展到 RAID 10 的最佳方式

mdadm 似乎不支持将数组从级别 1 增长到级别 10。

我在 RAID 1 中有两个磁盘。我想添加两个新磁盘并将阵列转换为四磁盘 RAID 10 阵列。

我目前的策略:

  1. 做好备份。
  2. 创建一个降级的 4 磁盘 RAID 10 阵列,其中缺少两个磁盘。
  3. rsync the RAID 1 array with the RAID 10 array.
  4. fail and remove RAID 1 阵列中的一个磁盘。
  5. 将可用磁盘添加到 RAID 10 阵列并等待重新同步完成。
  6. 销毁 RAID 1 阵列并将最后一个磁盘添加到 RAID 10 阵列。

问题是第 5 步缺乏冗余。

有没有更好的办法?

linux mdadm software-raid

24
推荐指数
3
解决办法
2万
查看次数

如何将 Linux 软件 RAID 移动到新机器上?

我有一台新建的机器,安装了全新的 Gentoo Linux 和来自另一台机器的软件 RAID 5 阵列(4 个 IDE 磁盘连接到板外 PCI 控制器)。我已经成功地将控制器移到了新机器上;驱动器被内核检测到;并且我使用了 mdadm --examine 并验证了单个 RAID 分区已被检测到、干净,甚至以“正确”的顺序(hde1 == 驱动器 0、hdg1 == 驱动器 1 等)。

我无权访问的是旧机器的原始配置文件。我应该如何在不丢失数据的情况下继续重新激活此阵列?

linux mdadm software-raid gentoo raid5

23
推荐指数
2
解决办法
5万
查看次数

您可以更改现有阵列上的元数据版本吗?

所以 grub 需要元数据版本 0.90 我想知道我是否可以更改我现有的数组来使用它而不是默认值 1.2。这样我就不用重新安装了。如果是,我该怎么做?

linux raid mdadm software-raid

21
推荐指数
3
解决办法
1万
查看次数

Linux mdadm 软件 RAID 6 - 它支持位损坏恢复吗?

维基百科说“RAID 2 是唯一的标准 RAID 级别,除了 RAID 6 的一些实现,它可以从数据的单个位损坏中自动恢复准确的数据。”

有谁知道 Linux 中的 RAID 6 mdadm 实现是否是这样一种实现,它可以自动检测单比特数据损坏并从中恢复。如果 CentOS / Red Hat 6 与其他版本不同,则这适用于 CentOS / Red Hat 6。我尝试在网上搜索,但运气不佳。

由于 SATA 错误率为 1/1E14 位,以及包含 1.6E13 位的 2TB SATA 磁盘,这对于防止数据损坏尤其重要。

编辑 2015 年 6 月 17 日

我相信这不是我最初认为的问题 - 请参阅硬盘 / SSD - 错误的检测和处理 - 是否可靠地防止了静默数据损坏?更多细节

linux mdadm software-raid raid6

16
推荐指数
1
解决办法
5849
查看次数

解释md的raid10,f2

我知道大多数不同的 RAID 是如何工作的。但是我 在研究linux软件raid时偶然发现了推荐的raid10,f2模式。我真的不明白它是如何在 2 或 3 个磁盘上工作的。有人可以向我解释一下吗?或者给我指出一篇解释它的非常好的文章?

linux raid mdadm software-raid

15
推荐指数
2
解决办法
2万
查看次数

15
推荐指数
2
解决办法
3186
查看次数

mdadm raid5 恢复双磁盘故障 - 稍加改动(驱动器顺序)

首先让我承认我犯了错误,并且我对这个 RAID 上的大部分但不是所有数据都有备份。我仍然有希望恢复其余数据。我没有钱将驱动器带到恢复专家公司。

错误 #0,没有 100% 备份。我知道。

我有一个mdadm4x3TB的RAID5 系统。驱动器 /dev/sd[be],都只有一个分区/dev/sd[b-e]1。我知道在非常大的驱动器上使用 RAID5 是有风险的,但我还是这样做了。

最近发生的事件

RAID 在两个驱动器发生故障后降级。一个驱动器 [/dev/sdc] 真的消失了,另一个驱动器 [/dev/sde] 在重新启动后重新启动,但没有自动重新添加到 RAID。所以我只剩下一个只有 2 个活动驱动器 [/dev/sdb 和 /dev/sdd] 的 4 设备 RAID。

错误 #1,不使用驱动器的 dd 副本来恢复 RAID。我没有驱动器或时间。错误 #2,没有备份超级块和mdadm -E剩余驱动器。

恢复尝试

我在降级模式下重新组装了 RAID

mdadm --assemble --force /dev/md0, using /dev/sd[bde]1.
Run Code Online (Sandbox Code Playgroud)

然后我可以访问我的数据。我换/dev/sdc了一个备用;空的; 相同的驱动器。

/dev/sdc1从 RAID 中删除了旧的

mdadm --fail /dev/md0 /dev/sdc1
Run Code Online (Sandbox Code Playgroud)

错误 #3,更换驱动器之前没有这样做

然后我将新分区/dev/sdc并将其添加到 RAID。

mdadm --add /dev/md0 /dev/sdc1 …
Run Code Online (Sandbox Code Playgroud)

linux mdadm raid5 debian-squeeze

15
推荐指数
1
解决办法
1万
查看次数