我目前有 3 个 1TB 驱动器,几个 500GB 驱动器和一些 750GB 驱动器。我可以将它们全部置于 RAID 5 配置中还是它们需要具有相同的大小?
我希望为专用备份构建一个漂亮的小型 RAID 阵列。我想要大约 2-4TB 的可用空间,因为我有一个将所有东西数字化的讨厌的小习惯。因此,如果驱动器出现故障,我需要大量存储和大量冗余。我还将/home使用 Linux 的“Time Machine”克隆之一来备份 2-3 台计算机的文件夹。可以通过 SSH 通过我的本地网络访问该阵列。
我很难理解 RAID-5 如何实现奇偶校验以及实际需要多少驱动器。有人会假设它需要 5 个驱动器,但我可能是错的。我见过的大多数图表只是让我感到困惑。似乎这就是 RAID-5 的工作原理,请纠正我,因为我确定我没有正确掌握它:
/---STORAGE---\ /---PARITY----\
| DRIVE_1 | | DRIVE_4 |
| DRIVE_2 |----| ... |
| DRIVE_3 | | |
\-------------/ \-------------/
Run Code Online (Sandbox Code Playgroud)
驱动器 1-3 似乎作为单个大型驱动器 ( capacity * number_of_drives)出现并工作,而奇偶校验驱动器备份这些驱动器。我觉得奇怪的是,我通常在图表中看到 3 个以上的存储驱动器,而只有 1 个或 2 个奇偶校验驱动器。假设我们在 RAID-5 阵列中运行 4 个 1TB 驱动器,3 个运行存储和 1 个运行奇偶校验,我们有 3TB 的实际存储,但只有 1TB 的奇偶校验!?
我知道我在这里遗漏了一些东西,有人可以帮我吗?另外,对于我的用例,RAID-5 或 RAID-6 哪个更好?在这一点上,容错对我来说是最重要的,因为它将在网络上运行,仅供家庭使用,速度并不是非常关键。
我刚刚搬家,涉及拆除我的服务器并重新连接它。由于这样做,我的 MDADM RAID5 阵列之一显示为非活动状态:
root@mserver:/tmp# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
3907039744 blocks
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
在我看来,它似乎找到了所有磁盘,但由于某种原因不想使用它们。
那么 (S) 标签是什么意思,我如何告诉 MDADM 再次开始使用该阵列?
[编辑]我只是尝试停止和组装阵列-v:
root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: …Run Code Online (Sandbox Code Playgroud) 知道磁盘数量和每个磁盘的大小,计算 RAID 5 阵列的最终 RAID 大小的公式是什么?
我想知道是否有人对大型驱动器的 RAID 5 2 驱动器故障有任何个人经验?
据我了解,理论是对于 1-2TB 的大驱动器,如果一个驱动器在 RAID 集中出现故障,它需要重建所有东西,因此会非常严重地影响所有其他驱动器,并且再次出现故障的可能性会增加,特别是如果驱动器来自同一制造批次。如果您丢失另一个驱动器,您将丢失所有数据。
这通常在我同意的声明“RAID 不是备份”之后解释。
这个理论是有道理的,我理解它,但它真的发生了吗?
什么是“Raid 5 + Spare”(摘自用户手册,第 4.17.2 节,第 54 页):
RAID5+Spare:RAID 5+Spare 是一种RAID 5 阵列,其中一个磁盘用作备用磁盘以在磁盘出现故障时立即重建系统(图79)。至少需要四个磁盘。如果一个物理磁盘出现故障,数据仍然可用,因为它是从奇偶校验块中读取的。故障磁盘中的数据将重建到热备用磁盘上。更换故障磁盘后,更换的磁盘将成为新的热备用。单个磁盘故障不会丢失数据,但如果在系统将数据重建到热备件之前第二个磁盘发生故障,则阵列中的所有数据都将丢失。
什么是“Raid 6”(摘自用户手册,第 4.17.2 节,第 54 页):
RAID6:在 RAID 6 中,数据跨所有磁盘(最少四个)进行条带化,每个数据块的两个奇偶校验块(图 80 中的 p 和 q)写入同一条带上。如果一个物理磁盘出现故障,则可以将故障磁盘中的数据重建到替换磁盘上。这种 Raid 模式最多可以支持两个磁盘故障而不会丢失数据。RAID 6 可以更快地从故障磁盘重建数据。
“Raid 5 + Spare”和“Raid 6”都非常相似......我无法区分。
“Raid 5 + Spare”什么时候是最佳选择?
什么时候“Raid 6”是最佳的?
该手册以 5 星评级降低了不同的突袭。“Raid 5 + Spare”仅获得 4 颗星,而“Raid 6”获得 5 颗星。如果我盲目相信手册,我会得出结论“Raid 6”总是更好。“突袭6”总是更好吗?
我有/dev/md127一个由四个驱动器组成的 RAID5 阵列。我设法将它们从阵列中热移除,目前/dev/md127没有任何驱动器:
cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdd1[0] sda1[1]
304052032 blocks super 1.2 [2/2] [UU]
md1 : active raid0 sda5[1] sdd5[0]
16770048 blocks super 1.2 512k chunks
md127 : active raid5 super 1.2 level 5, 512k chunk, algorithm 2 [4/0] [____]
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
和
mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Thu Sep 6 10:39:57 2012
Raid Level : raid5 …Run Code Online (Sandbox Code Playgroud) 我还是不明白为什么 RAID5 比 RAID4 好。我了解两者都计算用于在发生某些故障时恢复的奇偶校验位,唯一的区别在于存储这些奇偶校验位。我从这里借用了图表奇偶校验如何在 RAID-5 阵列上工作
A B (A XOR B)
0 0 0
1 1 0
0 1 1
1 0 1
Run Code Online (Sandbox Code Playgroud)
RAID4
Disk1 Disk2 Disk3 Disk4
----------------------------
data1 data1 data1 parity1
data2 data2 data2 parity2
data3 data3 data3 parity3
data4 data4 data4 parity4
Run Code Online (Sandbox Code Playgroud)
假设第一行是:
data1 = 1
data1 = 0
data1 = 1
parity1 = 0 (COMPUTED: 1 XOR 0 XOR 1 = 0)
Run Code Online (Sandbox Code Playgroud)
RAID5
Disk1 Disk2 Disk3 Disk4
----------------------------
parity1 data1 data1 data1
data2 parity2 …Run Code Online (Sandbox Code Playgroud) 我一直认为以下是 RAID 的一般经验法则:
这个假设正确吗?(以及它们与 JBOD 设置的 R/W IO 性能相比如何)
某些实用的 RAID 设置是否更适合不同的应用:游戏、视频编辑、数据库(Access 或 SQL)?
我在考虑硬盘驱动器,但这也适用于固态驱动器吗?
我有一个 Qnap ts463u-rp 数据存储阵列,其中包含 4x4TB 硬盘。
我的问题是,将 3x4TB 配置为 RAID 5 是否安全?
因为据我了解,不建议使用 RAID 5 配置 12TB 存储,因为重建阵列时会出现不可恢复的读取错误。这是正确的吗?
raid-5 ×10
raid ×7
hard-drive ×4
linux ×2
mdadm ×2
performance ×2
backup ×1
nas ×1
qnap ×1
raid-0 ×1
raid-1 ×1
storage ×1
ubuntu-12.04 ×1