慢速存储空间直接 S2D 设置

Dav*_*gar 6 storage-spaces windows-server-2016

我有两台带 8 核 64+ GB RAM 的戴尔 R710,带 9211 IT 模式的闪存戴尔 H200,4 个组队 gbe 网卡,Server 2016 一台服务器有: 2 x 480 GB SSD 的 3X 2TB HDD 1x 3 TB HDD 另一个 2 x 240 GB固态硬盘 4 x 2 TB 硬盘

我有一个带有 2012 R2 SS 的外部服务器,只有 2x4TB 驱动器,另一个带有 6 个以上的 HDD(没有 SSD)。

从外部服务器到彼此的传输超过它们拥有的 1GB 连接,100MB/s 的文件传输。从那些到我的 S2D 集群,我的最高速度约为 14MB/s 左右。

我找不到任何东西来帮助我诊断什么是太慢了。列数 4、4k、镜像、集群验证报告检查,我该怎么做才能弄清楚为什么这么慢?我知道使用 RDMA 的 10Gbe 是“推荐”的,但我不确定为什么它真的这么糟糕。这将是我的新集群@home,但它并不是真正可用的。帮助?绝望的.....

Windows VM 还显示磁盘的平均响应时间为 500 毫秒。哎呀

Bar*_*958 6

您确实需要支持 RDMA 的 10 GbE 来实现主干连接。4x1GbE 对于 Storage Spaces Direct 来说根本不够。购买 Mellanox ConnectX3 或类似的卡,您可以从 eBay 获得便宜的二手/翻新卡。

PS S2D 不会在双节点配置上发光...

  • 我可以试试 10GBe 卡。试图查明并证明阻碍我前进的网络。我只是找不到证据。 (2认同)

Net*_*ner 6

我可以试试 10GBe 卡。试图查明并证明阻碍我前进的网络。我只是找不到证据。

支持 RDMA 的 10GbE NIC 是 S2D 的要求。另外,只是想补充一点,@BaronSamedi1958 关于“S2D 不会在双节点配置上发挥作用......”的说法是正确的,因此我建议查看专为 2 个节点设计的 SDS 解决方案。首先,我想到的是 HPE VSA,他们可以创建带有云见证的 2 节点 HA,或者您可以尝试一下 StarWind VSAN,他们仅使用 2 个节点,不需要见证节点。