EMC ScaleIO 与 Starwind Virtual SAN

Eug*_*ene 7 storage-area-network software-raid emc starwind vsan

我正在建立一个测试实验室来评估未来生产使用的最佳解决方案。生产场是为 SMB 准备的,因此有预算,但也有限。

生产目标:3 台超融合服务器,采用 Windows Server 2012 R2 故障转移虚拟化集群和软件定义存储解决方案作为共享存储。短期内,集群将扩展到总共 5 台服务器。SAN 网络是专用的。

测试实验室的目标:找到满足以下条件的 SDS 解决方案:
1. 为 Hyper-V 集群提供共享存储。
2. 横向扩展:可以在不关闭集群的情况下添加-删除磁盘(最好也包括节点)。
3. 容错。丢失 1 个节点后可用(如果在丢失 2 个节点后可以恢复 - 太棒了!)。
4. 低网络开销/延迟(也将用于 SQL Server)。
5. 有合理的定价(因此,Storage Spaces Direct 是不可接受的)。

在阅读并查看了一些产品后,我的入围名单是 EMC ScaleIO 和 Starwind Virtual SAN。

我尝试了它们,发现 Starwind VSAN 提供的 HA 非常有限:据我了解,该解决方案仅跨节点镜像虚拟磁盘(即文件),并且仅允许在托管磁盘的限制范围内扩展容量。相反,ScaleIO 在节点之间传播数据,并允许添加新的存储和重新平衡卷。

所以,我的问题是:

  • 我的假设是否正确,或者 Starwind VSAN 允许跨每个节点的多个磁盘创建 HA 卷并稍后添加磁盘?
  • 您认为哪种解决方案更适合我的应用程序(请解释)?
  • 建议解决方案的缺点是什么?

先感谢您!

Bar*_*958 8

这里没有好坏之分:两种参考解决方案在扩展方式、在集群节点之间分配数据的方式以及处理组件故障的方式上都非常不同。

1)宽条带与数据局部性。SIO 执行所谓的“宽条带化”:它们或多或少地将卷数据保存在所有集群节点上(与 VMware VSAN 和 HPE VSA 相同),而 StarWind 则负责处理所谓的“数据局部性”(与 Nutanix NDFS 和SimpliVity/HPE 这样做)并保留有限数量的“合作伙伴”的数据。实际上,这两种方法各有利弊。

http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsan/vmware-virtual-san-data-locality.pdf

https://www.nutanix.com/2013/12/03/data-locality-sql-vdi-on-the-same-nutanix-cluster/

https://www.simplivity.com/blog/2016/05/importance-data-locality/

https://www.starwindsoftware.com/data-locality-page

2)单一统一地址空间与虚拟磁盘。SIO 确实可以创建一个单一的统一地址空间,但现实是它在您的环境中是一个无用的(至少!充其量是个坏主意!)功能:Microsoft / Hyper-V 确实需要每个集群节点至少一个 CSV / 虚拟 LUN 所以在您的情况下,虚拟 LUN 的最佳数量是相同的,无论您使用 SIO 还是 StarWind。

https://technet.microsoft.com/en-us/library/jj612868%28v=ws.11%29.aspx

https://www.petri.com/how-many-csvs-should-a-scale-out-file-server-have

https://blogs.msdn.microsoft.com/clustering/2013/12/02/cluster-shared-volume-csv-inside-out/

3) 节点数和容错。SIO 在这里与 Ceph 非常相似:它需要相当多的节点(8-10 个)才能获得合理的性能(感谢“宽条带化”)。还要确保您了解 SIO 仅用于复制,最终容量为 (N-1)/2,因此五个节点将为您提供 2 个节点容量,可用于 2 路复制,并且能够仅丢失一个节点 (N+1)。由于多个故障域,StarWind 使用复制和本地重建代码(擦除编码)的组合来同时承受多个故障,不仅有跨节点复制保护,而且还有本地“RAID”之类的保护,相同方式 SimpliVity,类似于 Microsoft 在 Azure/S2D 中所做的。

https://www.emc.com/collat​​eral/white-papers/h15148-emc-scaleio-deployment-guide.pdf

https://www.simplivity.com/blog/2016/10/data-storage-built-resiliency/

https://www.microsoft.com/en-us/research/publication/erasure-coding-in-windows-azure-storage/

https://www.starwindsoftware.com/grid-architecture-page

TL;DR:总的来说,我建议为两个入围候选者建立一个 POC,看看一切进展如何。

  • 是的,一点没错。VMFS3/5 是一个合适的集群文件系统,而带有 CSVFSv1/v2 螺栓的 NTFS/ReFS 不是,所以虽然数据传输是直接块(嗯,至少它们应该是......),但元数据传输总是通过 SMB3 重定向文件。 (2认同)
  • 此重定向是否会在网络和节点上产生大量负载?最好在任何环境中避免它还是仅在高性能环境中避免它? (2认同)

Str*_*ils 6

简短的回答是:这两种解决方案都将满足您的要求

正如之前的海报已经提到的,它们只是以不同的方式工作。

如果您想了解每种解决方案的优点/缺点,只需联系两家供应商并询问他们的售前技术人员您想知道的一切。之后,部署 PoC 并仔细检查他们告诉您的内容。