我们希望为 ESX 主机和 SAN 实施 10Gig 以太网。我们一直在寻找许多解决方案,它们确实可以归结为能够为我们提供最佳带宽的解决方案。
一种解决方案是将带有 CAT6a 的 Intel X540-T2 卡运行到 Netgear XS712T 交换机。
然而,我读得越多,SFP+ 就变得越有利,而且随着 Dell PowerConnect 8024F 等二手交换机的良好可用性,价格合理(<2,000 英镑),支持堆叠和 10GBASE-T 和 10GBASE 的低价差-DA NICs 似乎有道理。
有没有人对 VMWare ESX 环境中的 SFP+ 和 CAT6a/CAT7 布线有任何直接经验并可以提供建议?
设置如下: 3 台带有 Intel CX4 10 GigE 控制器的 Linux 服务器和一台带有 Myricom 10 GigE CX4 控制器的 X-Serve 连接到 ProCurve 4208vl 交换机,还有无数其他机器通过 good ol' 1000 base-T 连接.
根据交换机监控接口和服务器(ethtool 等),接口实际上设置为 10 Gig。但是,两台配备 10 GigE 的机器之间通过交换机的单个连接仅限于 1Gb。
如果我使用 CX4 电缆直接连接 10 GigE 机器中的两台,netperf 报告链路带宽为 9000 Mb/s。NFS 实现了大约 550 MB/s 的传输。但是当我使用交换机时,通过 netperf 的连接速度最高为 950 Mb/s,而通过 NFS 的连接速度最高为 110 MB/s。
当我打开从 3 台机器到第 4 台机器的多个连接时,我获得了 350 MB/s 的 NFS 传输速度。因此,每个单独的 10 GigE 端口实际上可以达到 1 Gb 以上,但单独的连接被严格限制为 1 Gb。
结论:通过交换机的 10 GigE 连接的行为与 10 1 Gb 连接的中继 …
我想将虚拟 10Gb 以太网接口公开到 Xen HVM 域中。基本操作系统是 Debian Squeeze、2.6.32 内核、Xen 4.0。
有没有办法在裸机上实际没有 10Gb 以太网接口的情况下实现这一点?
我们只是想将其用作本地互连,因此缺少 10Gb PHY 不是问题,但我无法找出正确的魔法来让客户操作系统相信它具有 10Gb 接口。
Twinax SFP+ 电缆与不同硬件供应商的设备一起使用时的兼容性如何?例如,Arista 交换机和 Solarflare 卡之间的 Cisco SFP+ 电缆是否正常?带有 Cisco 交换机和 Myricom 卡的 Amphenol 电缆怎么样?如果有疑问,与 NIC 制造商或交换机制造商合作是否有意义?无论哪种方式,我都无法找到任何好的信息。