Fla*_*res 5 freebsd cisco bonding
嘿,所有这些都是我在 cisco 论坛上提出的一个问题的转帖,但从未得到有用的答复。
嘿,我正在尝试将工作中的 FreeBSD 服务器从常规千兆链接转换为双千兆滞后链接。我们的生产服务器在 3560 上。我在 3550 上有一个小型测试环境。我已经实现了故障转移,但是在实现速度提升方面遇到了麻烦。所有服务器都运行 gig intel (em) 卡。服务器的配置是:
BSD服务器:
#!/bin/sh
#bring up both interfaces
ifconfig em0 up media 1000baseTX mediaopt full-duplex
ifconfig em1 up media 1000baseTX mediaopt full-duplex
#create the lagg interface
ifconfig lagg0 create
#set lagg0's protocol to lacp, add both cards to the interface,
#and assign it em1's ip/netmask
ifconfig lagg0 laggproto lacp laggport em0 laggport em1 ***.***.***.*** netmask 255.255.255.0
Run Code Online (Sandbox Code Playgroud)
开关配置如下:
#clear out old junk
no int Po1
default int range GigabitEthernet 0/15 - 16
# config ports
interface range GigabitEthernet 0/15 - 16
description lagg-test
switchport
duplex full
speed 1000
switchport access vlan 192
spanning-tree portfast
channel-group 1 mode active
channel-protocol lacp
**** switchport trunk encapsulation dot1q ****
no shutdown
exit
interface Port-channel 1
description lagginterface
switchport access vlan 192
exit
port-channel load-balance src-mac
end
Run Code Online (Sandbox Code Playgroud)
显然,对于 3550 的配置,将 1000's 更改为 100's 并将 GigabitEthernet 更改为 FastEthernet,因为该交换机具有 100Mbit 速度端口。
使用 3550 上的此配置,我在两个链接上同时获得故障转移和 92Mbits/sec 的速度,同时连接到 2 个主机。(用 iperf 测试)成功。然而,这仅适用于“switchport trunk encapsulation dot1q”行。
首先,我不明白为什么我需要这个,我以为它只是为了连接交换机。是否有其他一些设置实际上是导致速度增加的原因?第二,
这个配置在 3560 上不起作用。我得到了故障转移,但没有提高速度。当我使用或不使用封装线与服务器建立 2 个同时连接时,速度从 gig/sec 下降到 500Mbit/sec。我应该提到两个交换机都使用 source-mac 负载平衡。
在我的测试中,我使用的是 Iperf。我将服务器(滞后盒)设置为服务器(iperf -s),而客户端计算机是客户端(iperf -c server-ip-address),因此两个连接的源 mac(和 IP)不同。
任何想法/更正/问题都会有所帮助,因为演出开关是我真正需要滞后链接的。询问您是否需要更多信息。
归档时间: |
|
查看次数: |
2090 次 |
最近记录: |