我已经使用 4 个 75G 驱动器创建了一个 RAID10 阵列,以创建 150G 的存储。
一切都完成后(包括初始同步),一切看起来都不错,只是输出df -h显示指定挂载点上只有 73G 存储空间。
细节:
——
#!/bin/sh
disk1="/dev/sdh1"
disk2="/dev/sdh2"
disk3="/dev/sdh3"
disk4="/dev/sdh4"
echo "*** Verifying existence of 4 volumes $disk1, $disk2, $disk3 and $disk4"
if [ -b "$disk1" -a -b "$disk2" -a -b "$disk3" -a -b "$disk4" ]; then
echo "# Found expected block devices."
else
echo "!!! Did not find expected block devices. Error." …Run Code Online (Sandbox Code Playgroud) 在创建一个linux软件raid设备作为raid10设备时,我很困惑为什么必须对其进行初始化。实际上,同样的问题适用于 raid1 或 raid0。
最终,大多数人会在其上放置某种文件系统,并且该文件系统不应假设磁盘数据的任何状态。每次写入都会影响 raid10 或 raid1 设置中的两个磁盘,其中写入了 N 个镜像。应该没有任何理由最初初始化 raid10,因为它会随着时间的推移而发生。
我可以理解为什么对于需要奇偶校验的 raid5/6 设置,但即使如此,这似乎也可以懒惰地完成。
只是为了让人们感觉更好吗?
我有一个带有两个 146GB 磁盘的 RAID10 阵列的服务器。我正在尝试用两个 2TB 磁盘的 RAID1 替换一个 146GB 磁盘的 RAID10 阵列。由于没有空闲端口,我从要更换的阵列中取出了两个磁盘。现在我的突袭状态如下所示:
# /opt/hp/hpssacli/bin/hpssacli ctrl all show config
Smart Array P400 in Slot 1
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (273.4 GB, RAID 1+0, Interim Recovery Mode)
physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 146 GB, Failed)
physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 146 GB, Failed)
physicaldrive 2I:1:3 (port 2I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 2I:1:4 (port 2I:box 1:bay 4, SAS, 146 GB, …Run Code Online (Sandbox Code Playgroud) 我有一个 Linux 软件 raid 10 设置,包括 5 个 RAID 1(每个镜像设置两个驱动器)和所有 5 个 RAID 1 对中的 RAID 0。为了测试没有任何驱动器会在负载下快速失效,我在 RAID 0 中使用了坏块,并采用破坏性读/写模式。
Badblocks 命令:badblocks -b 4096 -c 98304 -p 0 -w -s /dev/md13
其中一个设备出现故障,而不是 badblocks 程序愉快地继续在它上面挂起。如果我运行同步命令,这也会挂起。首先,我认为这不是 RAID 1 设备的标准行为。如果其中一个驱动器出现故障,它应该仍然能够毫无问题地写入两个驱动器组成的虚拟设备。
因此,我继续强制使驱动器失效并尝试将其卸下。我可以毫无问题地将驱动器设置为故障(但是 IO 操作仍然挂起)。我无法从它说它正忙的突袭中完全移除该设备。我的假设是,如果我可以将它完全踢出突袭,IO 将继续,但这只是一个假设,我确实认为我正在处理各种错误。
这里到底发生了什么?由于错误,我是否处于无法恢复的位置?
该系统正在运行内核 2.6.18,因此它并不是全新的,但我认为鉴于软件突袭已经存在了很长时间,这样的问题不会发生。
任何见解都非常感谢。
mdadm --detail /dev/md13
/dev/md13:
Run Code Online (Sandbox Code Playgroud)Version : 00.90.03 Creation Time : Thu Jan 21 14:21:57 2010 Raid Level : raid0 Array Size : 2441919360 (2328.80 GiB 2500.53 GB) Raid Devices : 5设备总数:5 首选次要:13 持久性:超级块是持久性的
Run Code Online (Sandbox Code Playgroud)Update …
Windows 7 可以执行软件 RAID 10(或 RAID 1+0,具体取决于术语)吗?
似乎缺少有关 Microsoft Windows 产品的软件 RAID 的信息。甚至在 microsoft.com 上的搜索也提供了关于该主题的零篇文章,只有几篇论坛帖子。
磁盘管理器似乎可以创建动态卷,并且您可以组织条带或镜像集。但是不清楚是否可以采用两个独立的镜像卷,然后对它们进行条带化(即使用 4 个磁盘)。
有使用 Microsoft Windows XP、Vista 或 Windows 7 运行软件 RAID 10 的经验吗?
更新:此链接暗示 Windows 7 家庭高级版甚至无法执行 RAID 1(镜像)。Windows 7比较图表中没有提到这一点。即使我购买了 Professional,我也可以向广告标准机构投诉。
我刚刚为我的业务订购了一台新钻机。我们为 Microsoft SharePoint 进行了大量软件开发,并且需要该设备来运行多个虚拟机以进行开发和测试。我们将使用免费的 VMware ESXi 进行虚拟化。首先,我们计划构建和启动以下 VM - 全部使用 Windows Server 2008 R2 x64:
除此之外,我们还需要构建多个 SharePoint 场以进行测试。这些虚拟机只会在需要时启动。新钻机的规格是:
我们相信新服务器将使我们的 VM 的性能比我们现有的设置(2xIntel XEON、16GB RAM、RAID 1 中的 2x500 GB SATA)好得多。但是我们不确定新装备的 RAID 级别。
我们应该在 RAID 10 配置还是 RAID 5 配置中使用 6x146GB SAS 驱动器?RAID 10 似乎提供更好的写入性能和更低的 RAID 故障风险。但它是以更少的驱动器空间为代价的。我们需要 RAID …
我有 OpenFiler 存储服务器。
在不安装 Windows 和 MSM 的情况下,我想从磁盘 2 到 21 创建 raid10 阵列。
我已经成功地将 MegaCli 安装到 OpenFiler,但我一直在寻找用于创建 raid 10 阵列的正确命令行。
文档说创建raid 10的语法是:
MegaCli -CfgSpanAdd -r10 -Array0[E:S,E:S] -Array1[E:S,E:S] -aN
Run Code Online (Sandbox Code Playgroud)
我的机箱 ID 是 25,所以:
[root@linux-h5ut ~]# MegaCli -CfgSpanAdd -r10 -Array0[E25:S02,E25:S21] -Array1[E25:S02,E25:S21] WB Cached NoCachedBadBBU -a0
Invalid input at or near token E
Run Code Online (Sandbox Code Playgroud)
我在谷歌上搜索了高低,但似乎没有任何例子用 megaraid 做 raid10(只有语法)。
任何人都可以解释什么是错的?
我已经在 x86_64 机器上使用 mdadm 管理的软件突袭设置了一个 4 驱动器 RAID-10 阵列。
它会启动并运行并按预期工作,
cat /proc/mdstat
md127 : active raid10 sdc2[2] sdd2[3] sda2[0] sdb2[1]
1951397888 blocks super 1.2 512K chunks 2 far-copies [4/4] [UUUU]
bitmap: 9/466 pages [36KB], 2048KB chunk
Run Code Online (Sandbox Code Playgroud)
atm 四个 SATA 驱动器物理插入主板的第一个四个 SATA 端口。
我想为灾难性恢复收集必要/完整的信息。从这里开始阅读,http://neil.brown.name/blog和邮件列表,我还不能完全相信我做对了。
我理解“驱动顺序很重要”。逻辑和/或物理顺序重要吗?
如果我拔掉这个阵列中的四个驱动器,然后将它们分别插回主板或 pci 卡上的不同端口,只要我没有更改软件配置中的任何内容,阵列会正确地自动重新组装吗?
我正在从 6 个驱动器创建 RAID10 阵列。在近布局中创建时,例如
mdadm --create /dev/md2 --chunk=64 --level=10 --raid-devices=6 --layout=n2 /dev/sda1 ...
检查系统报告的条带大小:
cat /sys/devices/virtual/block/md2/queue/optimal_io_size
结果是 196608,正如预期的那样,例如 3 个数据驱动器(RAID10 中总共 6 个的 50%)x 64K 块 = 192K 条带。
现在,当使用--layout=f2选项创建相同的数组时,optimal_io_size报告393216,例如两倍大。
现在,根据 Nail Brown(mdadm raid10 作者)的说法,
“远”布局将所有数据以类似 raid0 的方式排列在所有驱动器的前半部分,然后在所有驱动器的后半部分以类似的布局布置第二个副本 - 确保块的所有副本都打开不同的驱动器。
预计这会在整个驱动器数量上产生类似于 raid0 的读取性能,但写入性能要差得多,因为将有更多的驱动器磁头搜索。
因此,操作系统似乎建议我最好使用类似 RAID0 的条带大小(跨阵列中的所有磁盘),而不是“传统的”RAID10 条带大小(跨阵列中的半个磁盘)。这对 LVM 和文件系统对齐、条带/步幅调整等具有潜在的严重影响。但是,我从未见过任何将远模式下的 MDADM RAID10 视为 RAID0 的建议。
问题:我在这里遗漏了什么,或者在对齐/调整该 RAID 之上的任何内容时将 RAID10,f2 视为 RAID0 是否正确?
我在戴尔服务器的 raid10 阵列中有 4 个磁盘。现在有 2 个驱动器出现故障。故障驱动器不在同一组(1+2 和 3+4),故障驱动器为 2 和 3。服务器仍在运行,但阵列已降级。我正在等待新驱动器的到来。
更换驱动器的最佳方法是什么?我可以同时更换两个磁盘吗?或者最好先重建第一组,然后再更换另一组?