设计中的IOPS瓶颈?

chr*_*ean 0 iops storage-spaces windows-server-2012-r2

我正在构建一个 45 个驱动器(backblaze)存储盒,用于 Windows 2012 R2 存储空间。规格为 2xE5-2620 v2 cpu、32 GB 内存、3xLSI 9201-16i 卡、9x1 TB SATA SSD 和 36x4TB HGST Ultrastar SATA 驱动器。假设 50/50 读/写,来自驱动器的原始数据时钟为 840,000 IOPS。LSI 卡每张卡可以处理 400k+ iops。假设我将驱动器放在一个 3 路镜像中,我将拥有 48 TB 的磁存储,使用 SSD 作为分层存储。这种系统的瓶颈是什么?是 RAM、cpu 或 LSI 卡还是驱动器本身?我们会看到 iops 接近理论最大值的 50% 吗?

eww*_*ite 5

这实际上取决于您将使用系统做什么。这是一般性建议;Windows 存储空间解决方案、ZFS 和传统文件系统的情况相同。

像这样思考:

  • 您正在使用一堆容量优化的磁盘,因此无论您在做什么,似乎都涉及大量数据。
  • 当人们谈论大型数据集时,应用程序通常是备份或活动工作数据集只是磁盘上数据子集的东西。
  • 如果目的是备份,为什么特定的 IOPS 很重要?
  • 如果目的是工作集相对较小的其他应用程序,我假设它可以在 SSD 缓存层处理。
  • 如果随机读/写性能很重要,这是错误的解决方案。
  • 您将如何将数据传入和传出服务器?如果有的话,将是您的尝试瓶颈。
  • 幸运的是,高级文件系统不需要太多 CPU 功率。你的 CPU 是我通常在 ZFS 存储系统中指定的。您可能需要更多 RAM,但我不知道 WSS 如何利用物理内存的细节。

实际上,您的问题可能是SATA 磁盘超时、驱动器故障、控制器问题(固件)、电源和冷却、振动……以及错误。我们在这里很少听说 Windows 存储空间,所以我猜测行业的思想占有率很低。

为什么我可以这样说?我不得不管理 Backblaze 设备并亲自拥有一个装满SATA磁盘的 Sun x4540meh)。即使使用所有这些磁盘,这种设置也确实只适用于顺序和流工作负载。