我正在将两个以太网接口配置到一个聚合组中以加倍带宽,我想知道绑定模式 = 0 是否适用于所有交换机?不支持 LACP 的哑交换机呢?这种方法是否会使单个主机(“会话”)的带宽加倍?
我最近再次考虑 Viprinet 提供的产品,基本上他们有一对路由器,一个住在数据中心,他们的VPN 多通道集线器和现场硬件,他们的 VPN 多通道路由器
他们还有一堆用于 3G、UMTS、以太网、ADSL 和 ISDN 适配器的接口卡(如 HWIC)。
他们的主要演讲似乎是跨不同媒体的结合。我真的很想在几个项目中使用它,但是它们的定价确实非常极端,集线器大约为 1-2k,路由器为 2-6k,接口模块每个为 200-600。
所以,我想知道的是,是否有可能使用几个 Cisco 28xx 或 18xx 系列的库存路由器来做类似的事情,并且基本上连接一堆不同的 WAN 端口,但是否可以将它们整齐地呈现为一个返回互联网的通道,如果 WAN 接口之一出现故障,则具有无缝(或几乎)故障转移。
基本上,如果我有 3 个 3G 到以太网调制解调器,并且每个都在不同的网络上,我希望能够在所有这些调制解调器之间进行负载平衡/绑定,而无需为特权支付 Viprinet。
有谁知道我将如何根据标准协议(或供应商特定协议)为自己配置一些东西,但实际上不必购买 Viprinet 硬件?
在 Linux 下,您可以将多个网络接口组合成一个“绑定”网络接口以提供故障转移。
但是有几种模式,其中一些不需要交换机支持。我的开关不受限制,因为我可以使用任何模式。
然而,在阅读不同模式时,并不能立即清楚每种模式的优缺点。
我正在搭建一些新的虚拟化服务器,其中一部分是让一些更高带宽的管道进入它们。最终目标是将 4 个 GigE 端口绑定到一个承载 802.1q 标记流量的中继。我可以走那么远,但是我遇到了一个奇怪的问题。但首先,一张图表。
---------- ---------- 1GbE trunks
| | 10GbE | | ------------- --------
| SW1 |-------| SW2 | ------------- | VM1 |
| | | | ------------- --------
---------- ----------
| | 1GbE -----------
| 1GbE |--------| client2 |
| -----------
----------
| | 1GbE -----------
| SW3 |------| client1 |
| | -----------
----------
Run Code Online (Sandbox Code Playgroud)
所有交换机都是 HP ProCurve 2910al 交换机,并且没有堆叠。上图中的 Client2 与 VM1 位于同一 VLAN 中。Client1 位于不同的 VLAN 中。对于 VM 机器 (CentOS 6),iptables 和 SELinux …
据我了解,绑定带来的好处之一是能够提高 LAN 中两台机器之间的网络速度。
绑定 [...] 意味着将多个网络接口 (NIC) 组合到单个链接,提供高可用性、负载平衡、最大吞吐量或这些的组合。
来源:Ubuntu 文档,重点是我的。
我在两台服务器上配置了绑定;两者都有两个 1Gbps NIC 适配器。当测试这些服务器之间的高速使用iperf,该报告指出:
balance-rr绑定模式时为 930 至 945 Mbits/sec 。802.3ad,802.3ad.一个有趣的事情是,使用时802.3ad,ifconfig表明几乎所有的RX是eth0(2.5 GB与几KB / MB)和所有TX的eth1机器A,并在计算机B的倒数
当要求iperf使用多个连接 ( iperf -c 192.168.1.2 -P 10) 时,获得的总和非常接近使用单个连接时显示的结果。
两台机器连接到 LACP 配置正确的 Netgear GS728TS(我希望),两个 LAG 分别覆盖两个端口。IEEE 802.3x 模式已启用。
是否 …
Linux 绑定驱动程序是否有一个底层的管理或诊断接口来确定内部发生了什么?
多年来,我一直在 Linux 机器和 Cisco 交换机之间使用链路聚合。在设置 Linux 端根本不响应 Cisco LACP 数据包的新机器时,我会定期遇到死胡同。我对每台服务器都严格遵循一套严格的说明,但结果似乎各不相同。
无论绑定包含一个从属设备还是八个从属设备,tcpdump 都会显示来自所有绑定接口上的交换机的 LACP 数据包,并且没有数据包被传回。事实上,没有数据包是传输周期。 rx_packets为接口显示可观的流量,但tx_packets为零。日志中没有关于 MII 或绑定的有趣内容。甚至没有任何错误。
目前,我正在处理一个只有两个网卡的盒子。目前,我的债券中只有 eth1。显然,这是一个退化的配置。这种情况不会随着 eth0 和 eth1 在债券中而改变;当网络堆栈完全关闭时,它只会使机器更难工作。如有必要,我可以为两个 nic 重新配置它并通过管理界面 (DRAC),但我无法通过这种方式从框中复制粘贴。
一些预习:
这是今天下载的 debian 8.6。
Linux box 3.16.0-4-amd64 #1 SMP Debian 3.16.36-1+deb8u2
(2016-10-19) x86_64 GNU/Linux
Run Code Online (Sandbox Code Playgroud)
一个简写的配置:
iface eth1 inet manual
auto bond0
iface bond0 inet manual
slaves eth1
address 10.10.10.10
netmask 255.255.255.0
bond_mode 4
bond_miimon 100
bond_downdelay 200
bond_updelay 200 …Run Code Online (Sandbox Code Playgroud) 我还没有得到服务器或网卡,但这是目标设置:
所以我想知道是否可以在 PCI-X/PCI-E 总线上设置某种形式的与 2 Nic 或 4 Nic pro Intel 以太网卡的绑定,以使客户端和服务器能够共享文件比 1Gbps 上限还快?
我知道会有一些来自 TCP/UDP 的开销,以及来自其他东西的其他开销,但我想尝试为客户端和服务器提供两者之间可能的最高总带宽。
如果这是不可能的,那么我将避免使用 2x 以太网 NIC 或 4x 以太网 NIC 产生额外费用。
是否可以在现有 vlan 接口之上设置绑定(活动/备份)?
假设以下场景:
像这样的东西:
eth0 --- eth0.101 -- iSCSI IP 1
\ eth0.100 -------------------
\__bond100——IP
eth1 --- eth0.102 -- iSCSI IP 2 /
\ eth1.100 -------------------
恐怕这不起作用,因为绑定驱动程序没有从 vlan-interface 获取链路层信息...
任何其他想法如何解决这个问题?
有两个是互连的Cisco WS-2950T。
通过在一个GBIC端口第一开关连接的第一NIC接合界面,以及通过所述一个GBIC端口第二开关连接的第二键合界面的NIC。
当然,两台交换机仅在一个接口上看到绑定 MAC 地址(例如,第一个交换机上是 GBIC ),所有绑定接口的传入流量都通过此 GBIC。
但是在“mode=5”中,所有传出流量都分布在所有建立绑定的接口之间。在这种情况下,数据包将从第二个交换机丢弃,无论如何都会通过第一个交换机?或者这个部门会工作?
我们位于有两个慢速 ADSL 连接 (3.5/0.5 Mbps) 的农村地区,并希望通过某种方式“组合”它们来提高连接速度和可靠性。下面描述了我们迄今为止效果很好的解决方案。
因此,这不是我们需要解决的问题,而是一些有用的文档,因为很难找到说明,我希望这可以帮助处于类似情况的其他人。也许比我更先进的人发现了一个我很乐意知道并修复的错误。
该文档是从工作系统编译而来的,必须稍微调整以适应我们所在位置的特定要求,而这些要求与更一般的描述无关。因此,虽然已尽一切努力确保可靠的准确性,但我并没有重做本文档中的全部内容,因此可能存在遗漏或错误的地方。如果它对您不起作用,请发表评论,我会尽力提供帮助。
以下两个来源对使其工作非常有帮助,非常感谢两位作者!
bonding ×10
linux ×6
networking ×5
lacp ×2
ubuntu ×2
centos6 ×1
cisco ×1
dsl ×1
ethernet ×1
hp-procurve ×1
internet ×1
iscsi ×1
linux-kernel ×1
mac-address ×1
multipath ×1
performance ×1
routing ×1
switch ×1
vlan ×1
vpn ×1