Dir*_*ler 5 virtualization iscsi storage-area-network fibre-channel vmware-vsphere
我们正在为 VMware VSphere 设置两台虚拟化服务器(DELL R710,双四核 Xeon CPU,2.3 Ghz,48 GB RAM),存储在 SAN(DELL Powervault MD3000i,10x 500 GB SAS 驱动器,RAID 5)上将通过 iSCSI 连接到千兆以太网交换机(DELL Powerconnect 5424,他们称之为“iSCSI-optimized”)。
任何人都可以估计基于光纤通道的解决方案会快多少(或更好的“感觉”)?我不是说名义上的速度优势,我的意思是虚拟机有效工作的速度有多快?
我们说话的速度是不是快了两倍、五倍、十倍?它证明价格合理吗?
PS:我们不是在谈论大量使用的数据库服务器或交换服务器。大多数虚拟化服务器的平均 CPU 负载低于 3-5%。
这里有很多影响性能的决定因素。您可能会考虑的一项调整是设置巨型帧。Scott Lowe 最近在这里发表了一篇博客文章,展示了他为实现这一目标所做的一些工作。
您提到来宾将运行低 CPU 负载——这些总是非常适合虚拟化的候选对象——但是光纤通道和 iSCSI 之间的区别还没有真正发挥作用。
如果您的 vm 来宾将运行存储密集型操作,那么您必须考虑将读/写操作从 VM 主机传输到存储阵列的速度可能成为您的瓶颈。
由于您的典型 iSCSI 传输速率为 1Gbps(通过以太网),而 FC 通常约为 2-4Gbps(取决于您愿意花多少钱),那么您可以说 FC 的传输速度大约快两倍.
还有新的 10Gig-E 交换机,但您的 Powervault 和 Powerconnect 尚不支持。
然而,这并不意味着机器会运行得更快,就好像它们以低 I/O 运行应用程序一样,它们实际上可能以相同的速度运行。
关于哪个更好的争论永远不会结束,这基本上取决于您自己的评估和结果。
我们部署了多个基于 FC 的微型云和基于 iSCSI 的微型云,它们都运行良好。我们发现瓶颈在于存储阵列级别,而不是 1Gb 以太网上的 iSCSI 流量。
小智 5
与运输速度相比,锭数更有可能成为瓶颈。
也就是说,是的,FC 的原始速度比 iSCSI 快,但是如果您(假设)尝试在 6 个轴(物理磁盘)上运行 200 个虚拟机,您将看到比尝试运行更差的性能24 个轴上的 200 个虚拟机通过 iSCSI。在我们几乎空闲的实验室环境中,我们每个 VM 运行大约 2 个 NFS 操作(240ish 对 117),因此这可能会给出一些关于您将拥有多少 IO 的概念。
我不认为你会看到基于传输的太大差异,除非你知道你有非常高的连续 IO(重仪器数据日志流?视频存档?,我不知道现实世界的场景可能是这样的, 老实说)。
我真的不认为你会注意到传输,除非磁盘的 IOPS 大大超过你的负载。我会根据其他标准来做出决定(易于管理、成本等)
上次添加存储时,我们在 NetApp 上使用了 NFS。
| 归档时间: |
|
| 查看次数: |
1520 次 |
| 最近记录: |