ive*_*hov 8 performance nic capacity gigabit maximum
所以这真的让我感到困惑。
显然,因为 1Gbit 可以同时在两个方向传输数据,所以应该可以在单个 NIC 上获得 2Gbit 的数据传输(1Gbit 流和 1Gbit 接收)。人们声称因为 1Gbit 是全双工的(几乎总是),所以它总共正好是 2Gbit。我的直觉和电气背景告诉我,这里有些不对劲 4 双绞线 250Mbit 容量每对 1Gbit。除非真的可以同时双向传输数据。
我用iperf做了一个测试。Ubuntu 服务器 12.04 <--> MacBook Pro。两者都具有不错的CPU速度。单独测试连接速度和在 Mac 上我可以看到 112MB/s,无论数据去哪个方向。在带有 vnstat 和 ifstat 的 Ubuntu 上,我获得了 970Mbit 的速度。现在,同时在两台机器上以服务器模式启动 iperf 并使用 2 个 iperf 客户端发送数据表明我在 Ubuntu 机器上以 600Mbit 发送,接收 350Mbit。这加起来几乎是 1Gbit 的链接。
所以对我来说没有神奇的 2Gbit。有人可以证实这一点或告诉我为什么我错了吗?
另一件让我困惑的事情是,例如 24 端口交换机具有例如:吞吐量»高达»至:»50.6Mpps交换»容量:»68Gbps交换机»结构»速度:»88Gbps
这表明每个端口可以处理 2GBit。
更新
我用 iperf -s iperf -c 10.0.20.91 -d -t60 再次测试
将窗口设置为 212KB。在上次测试中,我得到了
接收:961.41 Mbit/s 97603 p/s 发送:953.53 Mbit/s 84725 p/s
在服务器 NIC 上,所以肯定是单向 1GBit,同时。
双工在千兆以太网中有点用词不当,因为没有像 10Mb 或 100Mb 以太网那样单独的发送和接收通道。在较低的速度下,2 根线用于发送,2 根线用于接收。其他 4 条线根本没有使用(无论如何都用于数据)。
在千兆以太网中,所有 4 对都用于发送和接收。它使用 2 of 5 网格编码:为简单起见,我们会说每一端使用 5 个可能的“电压”中的 2 个,一个用于“1”,另一个用于“0”。它测量线路上的“电压”,减去近端正在传输的“电压”,从而知道远端正在发送什么。
其工作原理的实际细节更为复杂,但最终效果是相同的。不管怎样,在理想情况下,千兆以太网可以传输 2Gbps 的聚合数据。“真实世界”测试通常会更慢。此外,以太网帧减少了约 10% 的开销,TCP 和 IP 又减少了约 10%;所以基于 TCP 的测试通常会在 80% 的范围内达到最大值。
由于交换容量超过 48Gb(24 个端口 x 2Gb),因此您的交换机必须不止 24 个端口。交换结构是内部交换容量,它们通常将通告的数量限制为外部交换容量。
| 归档时间: |
|
| 查看次数: |
1046 次 |
| 最近记录: |