dbr*_*dbr 14 raid performance storage iops
关于 IOPS,我在网上看到几个消息来源表明给定磁盘数量的 IOPS 只是单个磁盘的 IOPS 乘以磁盘数量。
如果我对 IOPS 的理解是正确的(我完全不确定),我会认为现实将取决于 - 在许多其他因素中 - RAID 级别。使用 RAID 1/10,所有数据都至少在两个磁盘上复制,从而减少了某些 IO 模式在特定磁盘上的争用。但是,在条带化 RAID 级别(例如 RAID 0/5/6)中,数据是分布的而不是复制的,这意味着连续的读取请求可能针对同一主轴,从而导致在前一个 IO 完成时发生阻塞。写的更有争议。
我应该补充一点,由于各种优化和其他因素,我意识到现实要复杂得多。我的问题实际上只是在非常基本的层面上推动我对 IOPS 含义的理解是否在正确的轨道上。可能是我断言 IOPS 甚至可能以这种方式受到 RAID 级别的影响,这表明对该概念的基本误解。
sho*_*hok 14
对于 HDD,IOPS 通常由磁盘的访问时间决定,即寻道延迟 + 旋转延迟 + 传输延迟之和。由于这些变量在很大程度上取决于访问模式,并且与特定 RAID 布局(即:条带大小)和控制器(即:预读调整)有不明显的交互,因此任何简单的回复都将是错误的。
然而,让我们试着有一个大概的数字。粗略估计,n 磁盘阵列保证的 IOPS 应该是单个磁盘 IOPS 的 n 倍。然而,RAID 级别和数据访问模式,通过在寻道/旋转/传输延迟之间转移权重,戏剧性地改变了这种一阶近似。
让我们举一些例子,假设每个磁盘 100 IOPS(7200 RPM 磁盘的典型值)和 4 磁盘阵列(RAID1 除外,通常仅限于 2 路):
让我重复一遍:以上是简单且几乎不完整的近似值。无论如何,如果您想使用(严重不完整的)RAID IOPS 计算器,请看这里。
现在,回到现实世界。在实际工作负载中,RAID10 通常是更快和首选的选择,即使在阵列降级的情况下也能保持高性能。RAID5 和 RAID6 不应用于对性能敏感的工作负载,除非它们本质上是以读取为中心或顺序的。值得注意的是,严重的 RAID 控制器具有大的断电保护回写缓存,主要是为了克服(通过大量条带缓存)RAID5/6 低随机写入性能。切勿将 RAID5/6 与无缓存 RAID 控制器一起使用,除非您真的不关心阵列的速度。
SSD 是不同的野兽,想。由于它们本质上的平均访问时间要低得多,因此基于奇偶校验的 RAID 的性能开销要低得多,并且是比 HDD 更可行的选择。但是,在以随机写入为中心的小型工作负载中,无论如何我都会使用 RAID10 设置。
| 归档时间: |
|
| 查看次数: |
9581 次 |
| 最近记录: |