我有一个基于 4 磁盘软件的 raid5。两个驱动器同时发生故障,所以我有 2/4 运行驱动器。我以前用 2 个驱动器运行过 raid5,但这似乎不想挂载。你可以添加一个备用并重建突袭还是我被冲洗掉了?
为什么 raid5 可以在两个驱动器上运行,但如果 4 个驱动器阵列中的两个出现故障,您就不能再使用该阵列?
我刚刚发现我设置为 RAID-1 的软件 RAID 现在显示为带有备用的降级阵列。我删除并重新添加了它认为是“备用”的磁盘,但它仍然是备用磁盘。我怎样才能把那个备用的东西放到镜子里?
xen64:/# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Mon May 3 20:56:55 2010
Raid Level : raid1
Array Size : 973828096 (928.71 GiB 997.20 GB)
Used Dev Size : 973828096 (928.71 GiB 997.20 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sun Nov 7 08:18:50 2010
State : active, degraded, recovering
Active Devices : 1
Working Devices : 2 …Run Code Online (Sandbox Code Playgroud) 我正在寻找 SAN 解决方案,但买不起入门级解决方案。基本上,SAN 用于开发和概念验证产品。性能不一定要惊人,但需要实用。
我的朋友说我们应该在 Linux 中设置软件 RAID 和软件 iSCSI。基本上,我有一台配备双 Xeon 处理器、4GB 内存和 (2) 个 500GB 7200RPM 驱动器的备用服务器。它有点旧但可以工作。
我确信人们不使用软件 RAID 和 iSCSI 是有原因的,但性能是否可用?考虑在 RAID 0 中配置驱动器(为了性能)。
hardware raid network-attached-storage storage-area-network software-raid
我有 4 个硬盘驱动器,每个硬盘驱动器上有两个分区10.1GB用于交换和990.1GB其余部分。
我用这个设置了两个带有 RAID10 的 MD 设备,一个用于 4 个交换分区的集合,另一个用于 4 个其他分区的集合。
我将20.2GB软件 RAID 设备设置为我的交换设备并转移到 LVM。
这是本指南带我使用软件 RAID 的范围。我现在想在其上设置 LVM 和加密。
我创建了一个新卷和逻辑卷;大小1.5TB。我加密了卷并将1.4TB加密卷中的剩余部分设置为根 ( f ext4 /)。
以下是我的问题:
我应该20.2GB为用作交换区的软件 RAID 设备设置单独的卷/逻辑卷吗?
如果我正在加密该ext4 /区域,我是否也应该加密该卷?
Finish partitioning and write changes to disk 给出一个错误:
您已选择要存储在加密分区上的根文件系统。此功能需要一个单独的 /boot 分区,内核和 initrd 可以存储在该分区上。
你应该回去设置一个 /boot 分区。
这个/boot分区需要在哪里设置?(在设置 RAID 之前,每个驱动器是否应该有一个额外的分区?)
它需要多少空间?
它应该是 LVM 的一部分吗?
应该加密吗?
我在 Ubuntu 10.04.03、3 个设备、64k 块下设置了原始软件 RAID 5。性能是可以接受的:
# 4GB write
dd if=/dev/zero of=ddfile.big bs=1MB count=4k
4095290816 bytes (4.1 GB) copied, 51.743 s, 79.1 MB/s
# 4GB read
dd if=ddfile.big of=/dev/null
4095290816 bytes (4.1 GB) copied, 62.5932 s, 65.4 MB/s
Run Code Online (Sandbox Code Playgroud)
然后我去了一个带有 3 个设备的软件 RAID 6(2 个被标记为丢失,需要从它们中复制数据),128k 块。我还在新阵列上设置了 LVM。性能差得令人震惊:
# 4GB write
dd if=/dev/zero of=ddfile.big bs=1MB count=4k
4096000000 bytes (4.1 GB) copied, 106.406 s, 38.5 MB/s
# 4GB read
dd if=ddfile.big of=/dev/null
4096000000 bytes (4.1 GB) copied, 129.317 s, 31.7 MB/s
Run Code Online (Sandbox Code Playgroud)
我试图了解是什么使这些读写速度减慢了一半。会不会是LVM?还是新raid阵列的退化状态?或者可能是块大小差异(64k …
我有一个 vmware esxi 5 在带有 ssd 和两个硬盘驱动器的服务器上运行。服务器自带软件 lsi megaraid 和 intel Rapid Storage raid。它们都不适用于 esxi。
我需要以某种方式在虚拟机内设置一个 fakeraid 以在每个驱动器 (raid0) 上保留副本数据。
有可能这样做吗?
我已经知道RAID是由一个软件RAID dmraid(或我假设基于这样的事实df-h显示/dev/mapper/VolGroup...,也/dev/md0就是无效)。
我跑了dmraid -r,得到:
/dev/sda: ddf1, ".ddf1_disks", GROUP, ok, 1953253376 sectors, data@ 0
/dev/sdb: ddf1, ".ddf1_disks", GROUP, ok, 1953253376 sectors, data@ 0
Run Code Online (Sandbox Code Playgroud)
但是我无法找到结果格式的信息。如何找到 RAID 设置的详细信息。特别是 RAID 级别(RAID 0 或 RAID 1?)。0 代表 RAID 0 吗?
我有以下 Raid 配置,
cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md4 : active (auto-read-only) raid5 sda5[0] sdd5[4] sdc5[2] sdb5[1]
1536 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
md3 : active raid5 sda4[0] sdd4[4] sdc4[2] sdb4[1]
11587487232 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
md2 : active raid5 sda3[0] sdd3[4] sdc3[2] sdb3[1]
104756736 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
md1 : active raid1 sda2[0] sdd2[3] sdc2[2] sdb2[1] …Run Code Online (Sandbox Code Playgroud) 我发现我们的其中一台服务器在 VMWware 虚拟机中运行,并且具有软件 RAID。
在接下来的几天内无法联系到管理员。
我认为 VM 中的软件突袭没有意义。我认为 RAID 应该由管理程序处理,而不是在 VM 内部处理。
这样做的可行原因是什么?
cat /proc/mdstat
Personalities : [raid10]
md127 : active raid10 sde1[3] sdc1[1] sdb1[0] sdd1[2]
209712128 blocks super 1.0 512K chunks 2 near-copies [4/4] [UUUU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
Run Code Online (Sandbox Code Playgroud) 我这里有点问题。我有一个 Ubuntu Linux 服务器,在软件 RAID 1(使用 mdadm 创建)中设置了 2 个 SAS 驱动器。RAID 可以正常运行一天,我可以执行 cat /proc/mdstat 并且它显示两个磁盘都处于活动状态并且一切正常。然后出乎意料的是,第二个磁盘将出现故障,并进入降级模式。
然后我将从 RAID 组中移除磁盘,重新启动服务器,然后将磁盘重新添加到组中。RAID 将自行重建而不会出现任何问题,我将拥有一个健康的 RAID 1,可以使用相同的磁盘再次运行。然后,在 12-24 小时左右的时间内,第二个驱动器将出现故障。
硬盘是全新的,所以我认为硬件没问题。这是我在磁盘出现故障时能够从 kern.log 和 syslog 中捕获的输出。
任何人都可以翻译这个或知道可能会发生什么吗?
谢谢!
内核日志
Feb 28 20:34:55 CSTEP-APPS20 kernel: [ 9.180815] sd 2:0:0:0: Attached scsi generic sg1 type 0
Feb 28 20:34:55 CSTEP-APPS20 kernel: [ 9.181086] sd 2:0:1:0: Attached scsi generic sg2 type 0
Feb 28 20:34:55 CSTEP-APPS20 kernel: [ 9.181376] sd 2:0:1:0: [sdb] 71096640 512-byte logical blocks: (36.4 GB/33.9 GiB)
Feb …Run Code Online (Sandbox Code Playgroud) software-raid ×10
raid ×5
linux ×3
mdadm ×3
ubuntu ×2
centos ×1
debian ×1
encryption ×1
fakeraid ×1
hard-drive ×1
hardware ×1
lvm ×1
performance ×1
raid10 ×1
terminal ×1
vmware-esxi ×1