Sim*_*een 15 virtualization storage storage-area-network nfs vmware-vsphere
问题
我们在现有平台上的性能存在问题,所以我正在转向蜂巢思维,以寻求对此的第二意见。到目前为止,性能问题与 IOPS 而不是吞吐量有关。
情景
由 16 台主机组成的刀片中心,每台主机具有 64GB 的 RAM。(它是带有 M610 的 Dell M1000e,但这可能无关紧要)500 台虚拟机、所有 Web 服务器(或相关的 Web 技术,例如 MySQL、负载平衡器等),大约 90% 是 Linux,其余为 Windows。管理程序是 VMWare vSphere。我们需要提供主机HA,所以本地存储用完了。因此,主机只需一张 SD 卡即可启动。
一点背景思考
目前,我们有多达 6 台主机(刀片中心将在一年内以目前的增长达到满负荷),并且我们正在将 iSCSI 运行到带有 MD1220 的 Dell MD3220i 以进行扩展。
我们考虑过的可能选项,以及随之而来的即时想法:
问题
你会在所有这些之下运行什么样的存储?它不需要扩展到另一个刀片中心,它只需要为所有这些 VM 提供相对良好的性能。
我不是在寻找“购买 SAN x 因为它是最好的”的答案。我正在寻找关于各种 SAN 技术(iSCSI、FC、FCoE、InfiniBand、NFS 等)、不同类型的存储(SATA、SAS、SSD)以及处理 100 多个 VM 的存储的方法(整合、分离)的想法、分片等)。
绝对欢迎任何想法,链接,指南,指针等。我也很想听听关于我们已经考虑过的上述选项的想法。
非常感谢您提供任何输入!
12 年 3 月 5 日更新
到目前为止一些精彩的回复,非常感谢大家!
到目前为止对这个问题的回答,我开始认为以下路线是这样的:
听起来绝对值得利用主要 SAN 供应商的售前服务来了解他们的情况。
我将继续考虑这个问题一段时间。同时,感谢收到任何更多的建议!
Bas*_*sil 13
一个好的 VMWare 存储平台的关键是了解 VMWare 产生什么样的负载。
为 VMWare 平台构建存储的最佳方法是从基础开始。
eww*_*ite 10
我的大型 VMWare 部署是超过 10GbE 的 NFS 和 iSCSI。这意味着服务器中的双端口 10GbE HBA 以及存储头。为此,我非常喜欢基于 ZFS 的存储。在我的情况下,它围绕着商业NexentaStor,但有些人选择推出自己的。
在这种情况下,基于 ZFS 的存储的关键特性是 ARC/L2ARC 缓存功能,允许您对存储进行分层。最活跃的数据将在 RAM 和 SSD 存储中作为第二层找到。使用 10k 或 15k SAS 驱动器运行您的主存储池也将是有益的。
这是分析和了解您的工作负载的另一个案例。与可以分析您的存储模式并帮助您计划的人一起工作。在 ZFS/NexentaStor 方面,我喜欢PogoStorage。如果没有这种洞察力,传输方法(FC、FCoE、iSCSI、NFS)可能无关紧要。您是否对现有基础设施进行了任何监控?I/O 活动现在是什么样的?
关键问题是:“瓶颈在哪里?” 您提到了 IOPS,但这是否意味着您肯定将磁盘本身确定为瓶颈,或者仅仅是 SAN 端口未满负荷运行,或者 VM 的 iowait 比您想要的要多得多?
如果您确定磁盘是限制因素,那么切换到 NFS 或 infiniband 或任何不会对您的性能产生影响的东西——您需要 SSD(或至少混合 SSD 的分层存储)或一整捆更多的主轴(自从世界的步进电机生产被冲入大海以来,该解决方案最近本身变得更加昂贵)。
但是,如果您不能 100% 确定瓶颈实际在哪里,那么您需要先找到它——根据其他人的猜测或多或少地随机更换部分存储基础设施是不可能的非常有效(特别是考虑到实施任何更改的成本很高)。
归档时间: |
|
查看次数: |
1359 次 |
最近记录: |