标签: md

为什么数据盘为奇数的RAID5写入性能不佳

根据对我的另一个问题的评论,我的MD RAID 阵列性能不佳的原因很可能是因为我的 RAID5 阵列有 5 个数据磁盘。我已经尝试搜索有关为什么会这样的信息,但没有找到任何信息,所以我正在寻找有关为什么会这样的更多信息,以及它与拥有 4 个数据磁盘相比会产生什么样的影响。

raid md

5
推荐指数
1
解决办法
1万
查看次数

Linux 中非常特殊的权限掩码、UID、GID 和文件名

我刚刚启动,发现我的软件 RAID 5 在 Ubuntu 中没有安装。尝试挂载时,它给了我一个 NFS 错误(令人困惑)。我在 /dev/md0 上运行 fsck 并且我的屏幕滚动修复了大约一个小时。它声称是完整的,但是我已经安装了它并且文件夹结构是空的。它只有一个 lost+found 文件夹,其中包含数百个文件,如下面的屏幕截图:

非常混乱的文件!

linux raid data-recovery md

4
推荐指数
1
解决办法
153
查看次数

Debian 服务器在每次启动时都会降级 mdadm 阵列

我有一台带有 MD raid 的 Debian 服务器(2 个活动,一个备用):

Personalities : [raid1] 
md1 : active raid1 sdc2[0] sdb2[1] sda2[2](S)
      1068224 blocks [2/2] [UU]

md0 : active raid1 sdc1[2](S) sdb1[1] sda1[0]
      487315584 blocks [2/2] [UU]
      bitmap: 5/233 pages [20KB], 1024KB chunk

unused devices: <none>
Run Code Online (Sandbox Code Playgroud)

每当我启动此服务器时,阵列都会降级并开始同步备用磁盘。问题是,这似乎是因为它连接了一个 U 盘,目前是/dev/sdd. 当此磁盘不存在时,它可以正常启动。/dev/sdd1,唯一的分区,上面没有md超级块,分区类型是Linux,不是raid autodetect。

这是镜像设备的详细信息md0

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sun Jun  8 04:10:39 2008
     Raid Level : raid1
     Array Size : 487315584 (464.74 GiB 499.01 GB) …
Run Code Online (Sandbox Code Playgroud)

linux debian mdadm md

4
推荐指数
1
解决办法
731
查看次数

Linux md-raid 是否将备份元数据存储在磁盘上的任何位置?

我知道,对于 ext2/3/4 和其他文件系统,超级块的副本存储在整个磁盘中,以防主超级块损坏(https://ext4.wiki.kernel.org/index.php/Ext4_Disk_Layout)。

使用 md-raid(软件 raid),超级块存储在磁盘的开头或结尾,具体取决于使用的元数据版本(https://raid.wiki.kernel.org/index.php/RAID_superblock_formats#Sub -versions_of_the_version-1_superblock

颠覆 超级块在设备上的位置
0.9 在设备末端
1.0 在设备末端
1.1 在设备的开头
1.2 从设备开始的 4K

假设出现磁盘故障并且 md 超级块损坏。md-raid 是否将备份超级块存储在磁盘上的任何位置?

(我的猜测是“不”,因为这需要 md-raid 和文件系统之间的合作。自从 Linux 中添加 raid 支持以来,文件系统已经取得了长足的进步,所以似乎有人可能想出了一种方法来使这项工作)。

linux raid mdadm software-raid md

4
推荐指数
1
解决办法
1064
查看次数

恢复高度降级的RAID阵列

我有一个由 8 个磁盘组成的 Linux RAID6 阵列 (mdadm)。

2 个磁盘出现故障。我更换了它们,现在我有 2 个新的空磁盘。我想重建raid

但是当我开始raid重建时,重建失败,因为第三个磁盘显示读取错误并被弹出阵列。

在产生读取错误的少数扇区上丢失数据是可以的。

(什么是| 有没有)恢复raid 阵列的方法?

raid hard-drive mdadm raid6 md

3
推荐指数
1
解决办法
406
查看次数

(为什么)lvmraid6需要5个驱动器?

我正在研究使用 LVMRAID 而不是 MD+LVM。就我而言,我正在考虑 RAID6。

正如预期的那样,文档说您需要 N+1 个设备来实现 RAID5,并且至少需要 3 个驱动器。

文档说对于 RAID 6,您需要 N+2。

然而,它随后表示所需的最小驱动器是 5

在 MD RAID6 中,仅需要 4 个驱动器。因此,如果我构建 RAID6+LVM,我只需要 4 个驱动器,而根据文档,我需要 5 个驱动器用于 LVMRAID6。

LVMRAID6真的需要5个驱动器吗?

如果是这样,为什么它需要 5 个驱动器而不是 MDRAID6 的 4 个驱动器?

lvm software-raid raid6 md

3
推荐指数
1
解决办法
300
查看次数

RAID 6 可以支持 3 个或更多奇偶校验吗?

在我看来,人们使用 RAID 1+0、RAID 5+0 或 RAID 6+0 而不是使用具有 3 个或更多奇偶校验的 RAID(类似于 RAID 6)似乎是不正确的,因为后者具有更好的可靠性给定相同级别的冗余。
    考虑 4 个相同的 1TB 驱动器的情况。在这种情况下,RAID 6 和 RAID 1+0 都具有 50% 的冗余和等效的理论最大读写吞吐量(不计算寻道时间或 RAID 控制器缺陷)。RAID 6 阵列可以承受任何 2 个驱动器故障。RAID 1+0 可以承受任何单个驱动器故障,但有 1/3 的几率在第二次出现阵列故障。
    驱动器数量越多,奇偶校验越多,差异就越明显。对于 6 个相同的 1TB 驱动器和具有 3 个奇偶校验的 RAID 6,RAID 1+0 和这个 3 奇偶校验 RAID 将再次具有 50% 的冗余和等效的理论最大读写吞吐量。3 奇偶校验 RAID 阵列可以承受任何 3 个驱动器故障,而 RAID 1+0 可以承受任何单个驱动器故障,但有 1/5 的几率在第 2 次出现阵列故障,在第 3 次出现 3/5 阵列故障。
    因此,通过一些计算,很明显增加奇偶校验的数量在理论上比嵌套 RAID 级别更有效地使用驱动器。那么,为什么制造商不为他们的 RAID 控制器添加更多奇偶校验,而不是支持嵌套的 RAID 布局呢?我可以在 Linux MD 软件 RAID 中创建至少具有 …

raid raid6 md

-2
推荐指数
1
解决办法
957
查看次数

标签 统计

md ×7

raid ×5

linux ×3

mdadm ×3

raid6 ×3

software-raid ×2

data-recovery ×1

debian ×1

hard-drive ×1

lvm ×1