Pha*_*aun 7 networking gigabit-ethernet bonding
我还没有得到服务器或网卡,但这是目标设置:
所以我想知道是否可以在 PCI-X/PCI-E 总线上设置某种形式的与 2 Nic 或 4 Nic pro Intel 以太网卡的绑定,以使客户端和服务器能够共享文件比 1Gbps 上限还快?
我知道会有一些来自 TCP/UDP 的开销,以及来自其他东西的其他开销,但我想尝试为客户端和服务器提供两者之间可能的最高总带宽。
如果这是不可能的,那么我将避免使用 2x 以太网 NIC 或 4x 以太网 NIC 产生额外费用。
我已经建立了一个实验室,其中有 2 台服务器,每台服务器都有 2 个 Gbit NIC,通过 2 根 CAT5e 电缆背靠背连接。使用新安装在两台服务器上的 Debian 5.0.5 我在两台机器上使用绑定模式 0 (balance-rr) 配置了一个带有 eth0 和 eth1 的绑定主接口bond0,因为没有必要比这更复杂。
配置(/etc/network/interfaces)看起来有点像这样:
iface bond0 inet static
address 192.168.1.1
netmask 255.255.255.0
slaves eth0 eth1
bond_mode balance-rr
bond_miimon 100
bond_downdelay 200
bond_updelay 200
Run Code Online (Sandbox Code Playgroud)
我在其中一台服务器上安装了 Apache,并从另一台机器上的 Apache 下载了一个文件。我无法达到任何大于 1Gbit/s 的速度,但我猜这是因为 I/O 瓶颈。但是,我可以看到两个物理接口上的流量,所以我想说你想要的是可能的。
让我知道结果如何:)
希望这可以帮助!
归档时间: |
|
查看次数: |
11000 次 |
最近记录: |