在运行Debian Stretch的服务器上,我使用802.3ad 模式配置了一个bond0,如下所示:
auto bond0
iface bond0 inet manual
slaves eth0 eth2
bond_miimon 100
bond_mode 802.3ad
Run Code Online (Sandbox Code Playgroud)
在bond0接口启动并运行,但它的工作与负载平衡(循环)模式:
root@servir01:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: e4:1f:13:65:f0:c4
Slave queue …Run Code Online (Sandbox Code Playgroud) balance-rr和xmit_hash_policy 设置为 layer3+4 的802.3ad 有什么区别。
https://www.kernel.org/doc/Documentation/networking/bonding.txt
layer3+4:此算法不完全符合 802.3ad。包含分段和未分段数据包的单个 TCP 或 UDP 会话将看到跨两个接口的数据包。这可能会导致无序交付。大多数流量类型不符合此标准,因为 TCP 很少对流量进行分段,并且大多数 UDP 流量不涉及扩展对话。802.3ad 的其他实现可能会也可能不会容忍这种不合规性。
我刚刚遇到RAIN,独立网络接口冗余阵列,也就是第一次通道绑定。
这是一项值得实施的技术吗?有什么陷阱吗?或者升级到光纤会更好吗?
我正在使用带有 RHEL 5.3 和 XEN 内核默认值的戴尔 2950 服务器,我需要绑定我的 2 giga nic,我正在使用以下脚本之一:
ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
NETWORK=192.168.2.0
NETMASK=255.255.255.0
IPADDR=192.168.1.1
USERCTL=no
Run Code Online (Sandbox Code Playgroud)
ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
Run Code Online (Sandbox Code Playgroud)
ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
Run Code Online (Sandbox Code Playgroud)
/etc/modprobe.conf
alias bond0 bonding
alias eth0 e100
alias eth1 e100
options bonding mode=0 miimon=100
Run Code Online (Sandbox Code Playgroud)
/etc/xen/xend-config.sxp
(净*将 eth0 更改为 bond0)
但是我得到了 16MB/s 并且我有千兆交换机和 cat6 网络...如果有人告诉我如何在我的网络上获得更高的速度以将服务器上的 500GB 复制到其他...
谢谢
我试图将两个网卡结合在一起以获得更好的性能。我有两个 1000MBps 的英特尔网卡。当我有一个网卡时,我正在运行一些基准测试,速度为 106 MB/s。这非常接近 1GBps。所以我很高兴。当我添加第二个 nic 并将其与模式 0 (balance-rr) 结合在一起时,我仍然看到相同的 106 MB/s。
我的设置是:服务器 ====== 交换机 ====== 存储
存储和服务器都连接了两个网卡。我知道这不是存储,因为我可以同时运行两个基准测试并获得 2 Gbps 的吞吐量。
我很确定这个设置只使用了一个网卡。无论如何设置一些东西以获得更好的性能?
我们是一家网络开发公司,其 ADSL 带宽已经超出了发展范围。目前是 4/1 Mbit/s,由于距离的原因,我们不能简单地获得更快的 DSL,无论是 ADSL 还是 SDSL。堆叠多个 DSL 连接非常昂贵,而且由于我们在一年左右的时间内搬到另一个地方,因此铺设光纤也是如此。
货比三家后,以太网铜线似乎是我们最好的选择。他们将使用多个铜线对,并通过独立于提供商的 IP 范围提供 2/2 Mbit/s 的连接。
由于我们需要比 2 Mbit/s 更多的下行带宽,我们希望用我们当前的 ADSL 连接来补充这一点,这是与另一个 ISP 的连接。我们有他们的固定 IP。
实际上,将有两个 WAN 连接,以太网(第 2 层)和ADSL(第 3 层),它们需要聚合到单个管道中。
这可能吗?
我们是否需要以某种方式定义基于流量类型或 QoS 的规则,或者基于负载或连接成本的自动平衡?
我们需要什么样的硬件?我们愿意购买一些 Cisco 或 Juniper 设备,因为我们目前没有任何有用的东西。
任何提示都会有所帮助,因为这对我们来说是新领域。
我知道绑定模式,我知道balance-rr和802.3ad。两者都提供容错能力以及一些如何增加链路吞吐量的方法。
我的问题是什么时候我们可以balance-rr在不需要切换支持的情况下使用,为什么有人会想要使用 802.3ad??
快速提问。光纤通道是否有等效的端口通道/以太网通道链路聚合?是否可以聚合 FC 链路以实现高可用性?例如,如果我有两个结构,并且我希望具有 4 个 WWPN 的主机在每个结构中具有高可用性..是否可以使用类似 LACP 或 EtherChannel 的类似协议将 2 个 WWPN 链接绑定和聚合到每个结构?
谢谢!
我已经阅读了内核文档的bonding.txt 文件,负载平衡很清楚,但是 balance-alb 和 balance-tlb 真的容错吗?
Linux 支持多个以太网网络接口的绑定,以实现额外的可靠性或负载平衡。
绑定驱动程序过去是通过命令配置的,该命令已被弃用(由iproute2工具包中的命令ifenslave取代),因此已从内核源代码中删除。ipifenslave
已弃用命令的一个特殊功能(我找不到现代等效命令)是更改绑定接口的活动从属设备(假设绑定接口在该模式下运行active-backup)。
例如,以下命令将eth0网卡设置为bond0接口的活动从属:
ifenslave -c bond0 eth0
ifenslave --change-active bond0 eth0
Run Code Online (Sandbox Code Playgroud)
有没有办法使用iproute2ip工具包中的命令或通过 sysfs 更改 Linux 绑定接口的活动从属设备?