我有 Suse Linux 12.1,我正在尝试挂载一个 RAID 1 磁盘,以浏览其中的文件。但是在安装时:
# mount /dev/sdc1 /mnt/test
mount: unknown filesystem type 'linux_raid_member'
Run Code Online (Sandbox Code Playgroud)
我开始四处阅读,许多人建议只强制使用文件系统类型
# mount -t ext4 /dev/sdc1 /mnt/test
mount: /dev/sdc1 already mounted or /mnt/test busy
Run Code Online (Sandbox Code Playgroud)
尝试时
umount /dev/sdc1
umount: /dev/sdc1: not mounted
Run Code Online (Sandbox Code Playgroud)
有人可以提供一些建议吗?
我在 ESXI 服务器中运行我的机器,它是一个虚拟磁盘。但是这不应该播放,因为该磁盘没有被任何其他机器使用
谢谢!
我正在设置两个新的 4TB 硬盘驱动器的 RAID1 阵列。
我以前在某个地方听说过,将同时购买的新相同硬盘驱动器制作成 RAID1 阵列会增加它们在相似时间点发生故障的可能性。
因此,我正在考虑单独使用其中一个硬盘驱动器一段时间(可能是几周),以尝试减少两者在短时间内出现故障的可能性。(未使用的驱动器将保持断开连接在抽屉中)
这似乎是一种合理的方法,还是我更有可能只是在浪费时间?
为什么嵌套 RAID 级别 1+5 或 1+6 几乎闻所未闻?该嵌套的RAID级别维基百科的文章,目前缺少的部分。我不明白为什么它们并不比 RAID 1+0 更常见,尤其是与 RAID 1+0 三重镜像相比时。
很明显,重建时间变得越来越成问题,因为驱动器容量的增长速度快于其性能或可靠性。有人告诉我 RAID 1 重建速度更快,RAID 1 对的 RAID 0 阵列可以避免这个问题,但 RAID 5 或 6 RAID 1 对阵列肯定也会如此。我至少希望它们成为 RAID 1+0 的常见替代方案。
对于 16 个 1TB 驱动器,以下是我对求助于备份的天真概率的计算,即简化假设,即驱动器以偶数概率独立:
RAID | storage | cumulative probabilities of resorting to backup /m
1+0 | 8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000
1+5 | 7TB | 0, 0, 0, 15, 77, 217, 441, 702, 910, 1000, 1000 …Run Code Online (Sandbox Code Playgroud) 我想在旧电脑上构建一个低端 6TB RAID 1 存档。
MB: Intel d2500hn 64bit
CPU: Intel Atom D2500
RAM: 4GB DDR3 533 MHz
PSU: Chinese 500W
NO GPU
1x Ethernet 1Gbps
2x SATA2 ports
1x PCI port
4x USB 2.0
Run Code Online (Sandbox Code Playgroud)
我想在 Linux 上构建一个 RAID1 存档(我认为是 CentOS 7,然后我会安装我需要的所有东西,我认为ownCloud或类似的东西),我将在我的家庭本地网络中使用它。
10-20 美元的RAID PCI 控制器还是软件RAID 更好?
如果软件raid比较好,我在CentOS上应该选择哪个?是将系统放在外部 USB 上并在连接器上使用 2 个磁盘,还是应该将系统放在一个磁盘中然后创建 RAID?
如果我要做 3 个磁盘的 RAID 5,我应该选择硬件 raid PCI 还是简单的 PCI SATA 连接器?
我正在运行一个不受管理的 Ubuntu 服务器,由于最近的性能问题,我向提供商发送了一个请求,但只收到以下响应:
“亲爱的客户,
根据要求,我们检查了您的驱动器。两个驱动器都通过了测试,没有任何错误,这里没有显示任何临界值。我们注意到 RAID 处于降级状态,因此您需要在此处将驱动器重新添加到阵列:
-----------------%<-----------------
Personalities : [raid1]
md3 : active raid1 sda4[0]
1839089920 blocks super 1.2 [2/1] [U_]
md2 : active raid1 sda3[0]
1073610560 blocks super 1.2 [2/1] [U_]
md1 : active raid1 sda2[0]
523968 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0]
16768896 blocks super 1.2 [2/1] [U_]
unused devices: <none>
-----------------%<-----------------"
Run Code Online (Sandbox Code Playgroud)
Google 表示 U_ 表示驱动器出现故障,这似乎与支持人员所说的相矛盾。我如何从这里开始?
就像是
mdadm /dev/mdX -r /dev/sdaY
mdadm /dev/mdX -a /dev/sdaY
Run Code Online (Sandbox Code Playgroud)
如果是这样,对于我的情况,X 和 Y 是什么?如果需要有关我的配置的更多信息,请告诉我。
编辑,更多信息如下:
root@Ubuntu-1204-precise-64-minimal /home # …Run Code Online (Sandbox Code Playgroud) 我最近在 Linux 上使用mdadm. 将新 HDD 添加到 RAID 1 时,数据开始在我的驱动器之间同步,这是预期的。我没想到它开始同步整个驱动器,包括未使用的空间。HDD 为 6\xc2\xa0TB,只有大约 1\xc2\xa0TB 的数据,因此花费的时间比预期要长。为什么MD要同步未使用的空间?
我运行的是 Ubuntu 11.04(内核 2.6.38-11)。我用 2x500GB 驱动器替换了 2x160GB。它们被配置为 RAID1。
分区表显示了正确的大小。这是 sfdisk:
# sfdisk -d /dev/sdb
# partition table of /dev/sdb
unit: sectors
/dev/sdb1 : start= 63, size= 192717, Id=fd, bootable
/dev/sdb2 : start= 192780, size= 7807590, Id=fd
/dev/sdb3 : start= 8000370, size=968767695, Id=fd
/dev/sdb4 : start= 0, size= 0, Id= 0
Run Code Online (Sandbox Code Playgroud)
和 fdisk:
# fdisk -l /dev/sdb
Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size …Run Code Online (Sandbox Code Playgroud) 我即将用 Linux 软件 RAID1 阵列替换旧的硬件 RAID5 阵列。我正在和一个朋友交谈,他声称 RAID5 比 RAID1 更强大。
他声称对于 RAID5,读取奇偶校验数据以确保所有驱动器都返回正确的数据。他进一步声称,发生在驱动器上的 RAID1 错误不会被注意到,因为 RAID1 没有进行此类检查。
我可以看到这怎么可能是真的,但也可以看到这完全取决于所讨论的 RAID 系统是如何实现的。当然一个RAID5系统不具备阅读和检查读取和RAID1系统奇偶校验数据可以很容易地从读取所有驱动器读取检查他们都持有相同的数据,因此实现稳健的同一水平(相应的性能损失)。
所以问题是,现实世界中的 RAID5/RAID1 系统实际上是做什么的?RAID5 系统在读取时检查奇偶校验数据吗?是否有从所有驱动器读取并比较读取数据的 RAID1 系统?
我需要在 ASUS RS720-E10-RS12 服务器上配置 RAID 的帮助。我们在主板插槽中安装了 2 个 512GB NVME 驱动器,在背板插槽中安装了 12 个 SATA SSD。我只能从 NVME 磁盘创建 RAID,然后禁用 SATA RAID 选项,或者我可以创建 SATA RAID,但随后禁用 NVME RAID 选项,这是一个大问题。
我们需要为 2 个 NVME 磁盘(镜像)设置 RAID,因为我们要在其上安装 VMWare ESXi。
同时,我们需要为12x SATA SSD设置RAID 5或RAID 6,用于存储。
问题是,正如我之前提到的,如果我打开适用于 NVME 的 Intel(R) VROC,我可以从这两个 NVME 磁盘创建 RAID 1,但它会自动将我的所有 SATA 切换到 AHCI 模式,而我需要保留它们处于 RAID 模式。
我正在尝试通过 BIOS - American Megatrends - Aptio 设置 - AMI 进行配置。
那么,有没有办法为系统配置两个 NVME 磁盘中的一个 RAID 池,同时从 12 个 SATA SSD 中配置另一个池用于存储?
我有一个带有两个 146GB 磁盘的 RAID10 阵列的服务器。我正在尝试用两个 2TB 磁盘的 RAID1 替换一个 146GB 磁盘的 RAID10 阵列。由于没有空闲端口,我从要更换的阵列中取出了两个磁盘。现在我的突袭状态如下所示:
# /opt/hp/hpssacli/bin/hpssacli ctrl all show config
Smart Array P400 in Slot 1
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (273.4 GB, RAID 1+0, Interim Recovery Mode)
physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 146 GB, Failed)
physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 146 GB, Failed)
physicaldrive 2I:1:3 (port 2I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 2I:1:4 (port 2I:box 1:bay 4, SAS, 146 GB, …Run Code Online (Sandbox Code Playgroud)