我一直使用基于硬件的 RAID,因为它(恕我直言)处于正确的级别(请随意对此提出异议),并且因为操作系统故障对我来说比硬件问题更常见。因此,如果操作系统出现故障,RAID 就会消失,数据也会消失,而 - 在硬件级别上,无论操作系统如何 - 数据都会保留。
然而,在最近的 Stack Overflow 播客中,他们表示他们不会使用硬件 RAID,因为软件 RAID 开发得更好,因此运行得更好。
所以我的问题是,有什么理由选择一个而不是另一个吗?
我想中断 debian 挤压软件raid 上正在运行的重新同步操作。(这是常规的计划比较重新同步。在这种情况下,raid 阵列仍然是干净的。不要将其与磁盘发生故障并被替换后的重建混淆。)
如何在运行时停止此计划的重新同步操作?另一个突袭阵列是“重新同步挂起”,因为它们都在同一天(周日晚上)一个接一个地接受检查。我想彻底停止这个周日晚上的重新同步。
[编辑:sudo kill -9 1010不停止,1010 是 md2_resync 进程的 PID]
我还想知道如何控制重新同步之间的间隔和直到下一次的剩余时间。
[Edit2:我现在所做的是使重新同步变得非常慢,所以它不再打扰:
sudo sysctl -w dev.raid.speed_limit_max=1000
Run Code Online (Sandbox Code Playgroud)
取自http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html
在夜间,我会将其设置回较高的值,以便重新同步可以终止。
这种解决方法适用于大多数情况,但知道我问的是否可行会很有趣。例如,似乎不可能增长数组,而它正在重新同步或重新同步“待定”]
我目前在软件 RAID 上安装了 LVM,但我想问你,你认为它是更好的解决方案,也许有一些优点和缺点?
编辑:这是关于lvm上的软件raid或软件raid上的lvm。如果我们考虑性能,我知道比硬件突袭更好。
如何判断 grub 是否安装在磁盘上,以及它是否具有什么设置(特别是它对 root 参数的设置)
我需要检查软件 RAID1 阵列中的许多磁盘,以确保两个磁盘都安装了 grub,每个磁盘上的 grub 都具有适当的根值。
我最近研究了用于数据冗余和可用性的高级文件系统(Btrfs、ZFS),并对它们提供的附加功能感兴趣,尤其是它们针对数据损坏的“自我修复”功能。
但是,我认为我需要退后一步,尝试了解与传统的 mdadm-Raid1 + 相比,对于一般家庭/SMB 使用而言,这种好处是否超过了它们的缺点(Btrfs 错误和未解决的问题以及 ZFS 可用性和性能影响) Ext4 解决方案。无论哪种方式都可以使用镜像备份。
假设我有几个文件服务器用于存档目的并且资源有限,但是有 ECC 内存和稳定的电源。
我有两个 500 GB 磁盘,昨天我使用软件 RAID 1 将第一个驱动器镜像到第二个驱动器。
PC现在已经运行了30个小时。两个磁盘都显示“重新同步”,但没有进度指示器。此外,两个磁盘上都有一个黄色的小感叹号。
我的问题是:
我在 IT 工作了很多年,所以我知道什么是 RAID 阵列,什么是 RAID 0,RAID 1、5、6、10、50、60 等,但最近突然想起工作中的谈话;如果 RAID 代表独立(或廉价)磁盘的冗余阵列,那么为什么 RAID 0 被归类为 RAID 而不仅仅是条带阵列?
将数据在一个阵列上的多个磁盘上进行条带化不会提供任何冗余,那么为什么将其归类为 RAID 阵列呢?当然最低的数字应该是 RAID 1(镜像),因为那是冗余真正开始的时候?
我一直试图在这个问题上找到一个直接的答案,但事实证明这是难以捉摸的。这个问题和它的答案是接近,但并没有真正给我,我想细节。让我们从我认为我知道的开始。
如果你有一个标准的块设备并且你运行sudo blockdev --report你会得到这样的东西:
RO RA SSZ BSZ StartSec Size Device
rw 256 512 4096 0 500107862016 /dev/sda
rw 256 512 4096 2048 399999238144 /dev/sda1
rw 256 512 1024 781252606 1024 /dev/sda2
Run Code Online (Sandbox Code Playgroud)
现在,您决定使用--setra任何分区将默认值 256 更改为 128 ,并且它会发生在整个块设备上,如下所示:
sudo blockdev --setra 128 /dev/sda1
sudo blockdev --report
RO RA SSZ BSZ StartSec Size Device
rw 128 512 4096 0 500107862016 /dev/sda
rw 128 512 4096 2048 399999238144 /dev/sda1
rw 128 512 1024 781252606 1024 …Run Code Online (Sandbox Code Playgroud) mdadm 似乎不支持将数组从级别 1 增长到级别 10。
我在 RAID 1 中有两个磁盘。我想添加两个新磁盘并将阵列转换为四磁盘 RAID 10 阵列。
我目前的策略:
rsync the RAID 1 array with the RAID 10 array.
fail and remove RAID 1 阵列中的一个磁盘。问题是第 5 步缺乏冗余。
有没有更好的办法?
我有一台新建的机器,安装了全新的 Gentoo Linux 和来自另一台机器的软件 RAID 5 阵列(4 个 IDE 磁盘连接到板外 PCI 控制器)。我已经成功地将控制器移到了新机器上;驱动器被内核检测到;并且我使用了 mdadm --examine 并验证了单个 RAID 分区已被检测到、干净,甚至以“正确”的顺序(hde1 == 驱动器 0、hdg1 == 驱动器 1 等)。
我无权访问的是旧机器的原始配置文件。我应该如何在不丢失数据的情况下继续重新激活此阵列?
software-raid ×10
raid ×6
linux ×5
mdadm ×4
lvm ×2
block-device ×1
filesystems ×1
gentoo ×1
grub ×1
md ×1
raid0 ×1
raid5 ×1
windows-7 ×1