4X10GB 绑定 NIC - 仅产生 4-5GB 吞吐量

Nic*_*tis 6 networking performance bonding blade-server

我有两台运行 Ubuntu 15.04 的HPBL685c G6 刀片服务器

当我分别配置 4 个 10GB NIC 中的每一个时,我可以使用 iperf 进行测试,并且对于每个 NIC,我在服务器之间接收 ~10Gbit/sec 带宽。这按预期工作。

现在,我尝试使用绑定模式“balance-rr”绑定每台服务器上的所有 10GB 网卡。这些结果各不相同,但介于 2.5Gbits/sec 和 5Gbits/sec 之间

我使用相同的配置将 2X1GB 网卡绑定到这些相同的服务器上,使用 iperf 进行测试时,2X1GB 网卡绑定的带宽约为 2Gbit/sec。这 2 个 NIC 未连接到 Virtual Connect 域,而是分别连接到不同的Cisco Catalyst Blade Switch 3120

所以,我的问题是:为什么使用 balance-rr 绑定 4X10GB NIC 导致性能低于使用单个 NIC。我本来期望大约 40Gbit/sec 的带宽减去 TCP/Bonding 开销,这将与我的结果一致,当绑定 2X1GB 并在测试时获得 ~2GB。

我已经用不同的绑定模式尝试过这个,其他的在绑定时会产生大约 10Gbit/sec 的带宽。仍然不理想,但比 balance-rr 的结果要好。

Nic*_*tis 6

在 linux 部署中,Virtual Connect 模块似乎不支持绑定模式 0 (balance-rr)。

来自惠普支持:http : //h20564.www2.hp.com/hpsc/doc/public/display?docId=emr_na-c02957870

信息 HP Virtual Connect 环境中不受支持的绑定模式会导致数据包丢失和/或性能问题。

详细信息 HP Virtual Connect 支持绑定模式 1、5 或 6。VC 不支持模式 0(循环)或 7(交换机辅助负载平衡)。

模式1:主动/备份。主动备份策略:绑定中只有一个从属设备处于活动状态。当且仅当活动从站发生故障时,不同的从站才会变为活动状态。绑定的 MAC 地址仅在一个端口(网络适配器)上对外可见,以避免混淆交换机。

模式 5:自适应传输负载平衡:不需要任何特殊交换机支持的信道绑定。根据每个从站上的当前负载(相对于速度计算)分配传出流量。当前从站接收传入流量。如果接收从站发生故障,另一个从站将接管发生故障的接收从站的 MAC 地址。

模式 6:自适应负载均衡:包括 balance-tlb 和 IPV4 流量的接收负载均衡(rlb),不需要任何特殊的交换机支持。接收负载均衡是通过ARP协商实现的。