只是好奇,我的新服务器有 6 x 1TB 7200RPM Near Line SAS。我可以将其配置为 RAID5+1 Hot Spare 或 RAID6。
我应该选择什么?
伙计们请帮忙 - 我是一个手头严重头痛的新手(完美的风暴情况)。
我的 ubuntu 11.04 上有一个 3 1tb 硬盘,配置为软件 raid 5。数据每周都被复制到另一个独立的计算机硬盘驱动器上,直到完全失败并被丢弃。几天前,我们停电了,重新启动后我的盒子无法安装突袭。我以无限的智慧进入
mdadm --create -f...
Run Code Online (Sandbox Code Playgroud)
命令而不是
mdadm --assemble
Run Code Online (Sandbox Code Playgroud)
直到之后才注意到我所做的讽刺。它启动了阵列降级并继续构建和同步它,耗时约 10 小时。回来后我看到阵列成功启动并运行,但raid没有
我的意思是单个驱动器已分区(分区类型f8),但md0设备未分区。惊恐地意识到我做了什么,我试图找到一些解决方案。我只是祈祷--create没有覆盖硬盘驱动器的全部内容。
有人可以帮我解决这个问题 - 驱动器上的数据非常重要且独一无二,大约 10 年的照片、文档等。
是否有可能通过以错误的顺序指定参与的硬盘驱动器可以mdadm覆盖它们?当我做
mdadm --examine --scan
Run Code Online (Sandbox Code Playgroud)
我得到类似的东西 ARRAY /dev/md/0 metadata=1.2 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b name=<hostname>:0
有趣的是,过去的名称是“raid”,而不是附加了 :0 的主机 hame。
这是“已消毒”的配置条目:
DEVICE /dev/sdf1 /dev/sde1 /dev/sdd1
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
ARRAY /dev/md0 metadata=1.2 name=tanserv:0 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b
Here is the output from mdstat
cat /proc/mdstat
Personalities : [linear] [multipath] …Run Code Online (Sandbox Code Playgroud) 我有一台新建的机器,安装了全新的 Gentoo Linux 和来自另一台机器的软件 RAID 5 阵列(4 个 IDE 磁盘连接到板外 PCI 控制器)。我已经成功地将控制器移到了新机器上;驱动器被内核检测到;并且我使用了 mdadm --examine 并验证了单个 RAID 分区已被检测到、干净,甚至以“正确”的顺序(hde1 == 驱动器 0、hdg1 == 驱动器 1 等)。
我无权访问的是旧机器的原始配置文件。我应该如何在不丢失数据的情况下继续重新激活此阵列?
我们有一台运行 CentOS 的 Dell PowerEdge T410 服务器,其 RAID-5 阵列包含 5 个希捷 Barracuda 3 TB SATA 磁盘。昨天系统崩溃了(我不知道具体是怎么回事,也没有任何日志)。
启动到 RAID 控制器 BIOS 后,我看到在 5 个磁盘中,磁盘 1 标记为“丢失”,磁盘 3 标记为“降级”。我强制备份磁盘 3,并用新硬盘驱动器(相同大小)替换磁盘 1。BIOS 检测到这一点并开始重建磁盘 1 - 但是它卡在了 %1。旋转进度指示器整晚都没有移动;完全冻结。
我在这里有哪些选择?除了使用一些专业的数据恢复服务,还有什么方法可以尝试重建?两个硬盘怎么会同时出现故障?似乎过于巧合。是否有可能是磁盘 1 发生故障,从而导致磁盘 3“不同步”?如果是这样,是否有任何实用程序可以用来“同步”恢复它?
我的理解是 SSD 的写入数量有限。由于跨驱动器的奇偶校验信息,RAID5 执行多次写入。因此推理表明 RAID5 会以更快的速度杀死并降低固态驱动器的性能。
这篇文章中的以下陈述使我认为我的上述推理不完全理解或可能不正确。
高耐用性 SSD 的另一个利基是奇偶校验 RAID 阵列。SLC 由于其固有的卓越写入延迟和耐用性,非常适合此类应用。
今天早上,我们的数据库服务器上的一个驱动器出现故障。驱动器阵列(3 个磁盘)设置为 RAID 5 配置。
在等待驱动器更换期间,我们正在准备恢复策略。用户继续在系统上工作,尽管速度很慢(不知道为什么??)。
如何安装新驱动器 - 该驱动器的数据会自动从奇偶校验重建还是我们应该遵循另一个过程?
编辑: 这是一个硬件 RAID 控制器。(感谢到目前为止的答案,不胜感激)
假设您有两个 RAID 阵列,一个有 N 个磁盘,另一个有 N+1 个磁盘。具有 N 个磁盘的阵列被格式化为RAID\xc2\xa05并保持不变,而另一个阵列在其中一个磁盘被移除之前被格式化为RAID\xc2\xa06 。现在,两个阵列都有 N 个磁盘,N-1 个磁盘的可用存储空间,并且可以在丢失一个(多个)磁盘的情况下幸存下来。
\n除了 RAID 控制器使用的任何元数据之外,这两个阵列之间是否有任何差异(在数据布局、性能和可靠性方面)?我能否将缺少一个磁盘的 RAID\xc2\xa06 阵列转换为一个较少预期磁盘的 RAID\xc2\xa05,并尽可能减少“重塑”/“重写”?
\n我知道 RAID 5 和 RAID 6 中有不同的“策略”/“对齐”,但这可能超出了这个问题的范围。也许应该假设两个阵列都使用两个 RAID 级别通用的策略。
\n寻求有关何时以及如何确定在 SAN 中有 2 个卷,每个卷都带有 RAID 5 会更好的建议?
总有一天我可以再向控制器添加 3 个驱动器,SAN 用于 ESX/vSphere VM。
谢谢...
首先让我承认我犯了错误,并且我对这个 RAID 上的大部分但不是所有数据都有备份。我仍然有希望恢复其余数据。我没有钱将驱动器带到恢复专家公司。
错误 #0,没有 100% 备份。我知道。
我有一个mdadm4x3TB的RAID5 系统。驱动器 /dev/sd[be],都只有一个分区/dev/sd[b-e]1。我知道在非常大的驱动器上使用 RAID5 是有风险的,但我还是这样做了。
RAID 在两个驱动器发生故障后降级。一个驱动器 [/dev/sdc] 真的消失了,另一个驱动器 [/dev/sde] 在重新启动后重新启动,但没有自动重新添加到 RAID。所以我只剩下一个只有 2 个活动驱动器 [/dev/sdb 和 /dev/sdd] 的 4 设备 RAID。
错误 #1,不使用驱动器的 dd 副本来恢复 RAID。我没有驱动器或时间。错误 #2,没有备份超级块和mdadm -E剩余驱动器。
我在降级模式下重新组装了 RAID
mdadm --assemble --force /dev/md0, using /dev/sd[bde]1.
Run Code Online (Sandbox Code Playgroud)
然后我可以访问我的数据。我换/dev/sdc了一个备用;空的; 相同的驱动器。
我/dev/sdc1从 RAID 中删除了旧的
mdadm --fail /dev/md0 /dev/sdc1
Run Code Online (Sandbox Code Playgroud)
错误 #3,在更换驱动器之前没有这样做
然后我将新分区/dev/sdc并将其添加到 RAID。
mdadm --add /dev/md0 /dev/sdc1 …Run Code Online (Sandbox Code Playgroud) 我使用我的 Ubuntu 机器作为使用 Samba 共享的 Windows/Linux/Mac 客户端的文件服务器。我需要它只需添加更多硬盘即可轻松扩展,而无需来回移动任何数据。
到目前为止,我就是这样做的。我已经成功添加了第四个硬盘。现在很高兴知道这是应该如何做的?我做错了什么或我可以做得更好?
我从三个空驱动器开始:/dev/sdb、/dev/sdc 和 /dev/sdd。
首先,我为所有驱动器创建了空分区:
$ fdisk /dev/sdX
n # Create a new partition
p # Primary
1 # First partition
[enter] # Starting point to first sector (default)
[enter] # Ending point to last sector (default)
t # Change partition type
fd # Type: Linux raid autodetect
w # Write changes to disc
Run Code Online (Sandbox Code Playgroud)
当所有三个磁盘都创建了空的 RAID 分区后,我创建了一个 RAID5 阵列:
$ mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
Run Code Online (Sandbox Code Playgroud)
现在 …