虚拟化 - 10 条 1Gbps 链路还是 1 条 10Gbps 链路?(表现)

Giz*_*zmo 13 networking performance switch performance-tuning

我有一台机器有几个虚拟机 (5) 和 3 个物理网卡(每个有 2 个端口),总共有六个 1Gbps 以太网端口。

我有一个支持 SPF 的交换机,总共有 48Gbps 的带宽和一个 10Gbps 的 SPF 链接。服务器还有一个 SPF 端口 (10Gbps)。

我很好奇最好的设置是什么,性能明智(充分利用每一点,最少的 cpu 使用)以及为什么。

将所有 VM 连接到一个 SPF 端口然后连接到交换机上的 SPF 端口会更好,还是应该获得 5 根以太网电缆并将它们连接到网络交换机上的 5 个端口?

如果还有点不清楚,想象一下这个场景:

Switch上的两台PC要分别从VM A下载一个大文件,第二台PC要从VM B下载。如果它们通过以太网连接,每个PC都有自己的连接,因此VM A的连接将切换到PC A ,同时来自VM B的连接将切换到PC B,对吗?如果您将两个 VM 都连接到 SPF,那么 SPF 端口将在 PC A 和 B 之间切换。

那么哪种情况在最大负载下表现最好?为什么?

编辑:我想保持这个相当通用,以便它可以应用于全局场景,但已经询问了设置的详细信息,它们是:

服务器:PowerEdge T620
SPF 卡:PEX10000SFP 10 千兆位
NIC:3 个 NetXtreme BCM5720
操作系统:XenServer 6.2
CPU:至强 E5-2609
交换机:T1600G-28TS
客户操作系统:Debian Wheezy (PV)

Nic*_*ung 23

1 x 10Gb 链路以提高性能。

否则,如果单个服务器需要使用 1.1Gbs 到另一台服务器,则不能,因为大多数负载平衡系统使用目标 MAC 或 IP(这将是相同的)。

这也消除了链接比其他链接更忙的问题,因为相同的事实,如果散列在同一链接上,它们最终会在同一链接上,除非在 VMWare 中的特殊动态开关配置中

  • +1 正确。在使用多个 1Gbps 接口的单个​​ TCP 连接上接收 >1Gbps 在实践中仍然很难实现,但对于 10 Gbps 接口来说微不足道。想想中央备份解决方案:) (2认同)