标签: bonding

在 iSCSI SAN 上只能访问两个 SFP 端口之一

我有一台带有 HP NC523 双 10GbE 网卡和带有双 10GbE iSCSI 控制器的 HP MSA1040 存储的服务器。

NC523 上的两个端口都配置为绑定。MSA 上的端口具有不同的 IP 地址。

我想将此系统配置为使用 20Gb 带宽(即 linux 服务器上的绑定和 MSA 上的多路径)。不应使用开关,只需直接连接即可。

如果 MSA 的两个端口都用光纤电缆连接,则只能通过 ping 访问一个端口(因此我可能无法初始化多路径)。我交叉检查了所有硬件组件,只要只有一条线将服务器与 MSA 连接起来,所有硬件组件都可以在每种可能的组合中工作。

有人可以建议我解决这个问题吗?

ps

我有另一个类似的服务器,带有一个“普通”的四核 1 GbE 铜质网卡和一个带有四核 1GbE iSCSI 控制器的旧 HP P2000 存储。类似的配置在这里工作没有任何问题。服务器上的四个接口绑定到一个绑定,iSCSI 存储的每个端口都可以 ping 通,也可以使用多路径。两台机器都运行 CentOS 7。

iscsi multipath bonding

5
推荐指数
1
解决办法
482
查看次数

以太网上的 ATA 适合哪种 Linux 绑定模式?

我在带有绑定千兆网卡的 Linux NAS 上使用 AoE(以太网上的 ATA)。我很好奇哪种绑定模式最适合与 AoE 一起使用?(平衡-rr、平衡-异或、802.3 等)

我正在使用良好的 procurve 开关,我已经调整了 sysctl,以便内核 rx/tx 缓冲区适用于巨型帧,我只想确保选择适当的绑定类型。我正在寻找最佳性能和故障转移(或者,为什么你首先要结合)。

linux network-attached-storage bonding

4
推荐指数
1
解决办法
2425
查看次数

ESX(i) 接口绑定 ala Linux?

我打算虚拟化我拥有的一些 Linux 主机,并将把 ESXi 放在物理机上。目前,我已经为冗余设置了两个交换机,并且在模式 1 (active/backup) 中设置了绑定。

这是简单的逻辑布局: 逻辑开关图

从本质上讲,任何交换机、NIC 或防火墙都可能失效,但一切仍然保持连接。

当我转移到 ESXi 时,我非常想继续这样做,但我还没有看到任何证据表明这是可能的(事实上,来自 Yellowbricks 的 Duncan Epping 表示这可能是不可能的,如果我理解问题和答案正确)。

由于我对整个“裸机虚拟化”这件事比较陌生,我想我会问比我更了解的人。

您能否将 ESXi 中的网卡设置为高可用?如果是这样,如何?

switch bonding vmware-esxi

4
推荐指数
1
解决办法
2779
查看次数

NIC 主动/被动绑定优先

我将配置三个 NIC 的绑定。我想定义在故障转移完成时首先使用哪个网卡以及将哪个网卡用作第二个和第三个网卡。这可能吗?

谢谢

linux failover nic bonding

4
推荐指数
1
解决办法
1万
查看次数

Linux 绑定模式 4 (802.3ad) - 2 交换机 - 4 NIC

我知道您可以使用绑定模式 4 与 1 个服务器和 2 个网卡使用 2 个交换机。

Bond 0 由:网卡 1 端口 1 -> 交换机 A 网卡 2 端口 1 -> 交换机 B

在这种情况下,我可以松开交换机或网卡或电缆,而我的网络仍然可以工作,如果一切正常,我将在高可用性之上进行链路聚合。

我的问题是你能做同样的事情,但使用 4 个 NIC 来获得更高的速度并且仍然可以安全地运行。

Bond 0 由:网卡 1 端口 1 -> 交换机 A 网卡 1 端口 2 -> 交换机 B 网卡 2 端口 1 -> 交换机 A 网卡 2 端口 2 -> 交换机 B

交换机可能是思科。

干杯

bonding

4
推荐指数
2
解决办法
1万
查看次数

你相信 LACP 吗?

在设计网络拓扑时,有什么理由不应该依赖 LACP?我的意思是 L2切换到管理程序连接,因此它是 VM 聚合流量累积的地方。我们谈论的是 5 x 1 GbE LACP 绑定。

我和我的同事意见不一。他说:“为什么我们要为整个设置增加另一层开销?这只是另一个潜在的故障点。” 他对链路聚合总体上持怀疑态度。我认为 802.3ad 模式下的 linux 绑定驱动程序是可靠且不错的选择。

他还认为我们不需要它,因为我们的环境中永远不会有这么大的流量,简单的 1 GbE 就足够了。我们是高中,在我们的局域网中有大约 100 个 PC 客户端和大约 10 个服务器。

因此,当我们完全不知道天气是否需要 LACP 时,我们处于这种情况。一些关于网络流量的额外数据会很好,但我相信检索有意义的数字是具有挑战性的。所以最终更容易依靠直觉,只需说:“是的,我们想要 LACP,当然,因为流量。” 或“,因为它不可靠而且我们不需要它。”

有什么建议?

network-design load-balancing bonding network-traffic lacp

4
推荐指数
1
解决办法
477
查看次数

绑定双 1 Gbit/s NIC 以提高单个 2.5Gbit/s 端口的吞吐量

Linux 能够将 NIC 绑定在一起。有趣的策略是循环,它在每个 NIC 之间交替传出数据包。

然而,性能优势通常仅限于多个客户端。单个 1000BASE-T 客户端尽管由双 1000BASE-T 供电,但当然仍限制为 1 Gbit/s。

2.5GBASE-T 客户端怎么样?假设如下:

[服务器|2x1G] <===> [交换机|2.5G] <---> [客户端|1x2.5G]

服务器上的双网卡“条带化”以使带宽加倍,交换机使用两个端口接收全部带宽并切换到单个 2.5G 端口。

客户端能够以约 2 Gbit/s 的速度从服务器下载吗?如果是这样,这种情况是否需要比非托管交换机“更智能”的东西?

谢谢!

networking linux gigabit-ethernet bonding

4
推荐指数
1
解决办法
2938
查看次数

具有两个上行链路的 NIC 绑定

绑定是实现 ISP 冗余的首选方式吗?

在我看到的文本中,绑定设备有一个网络掩码,它自己的网关。如果两个上行链路有两个不同的网关,选择哪一个?

我是否需要任何特殊的路由规则来配合它,或者只是配置单独的接口(使用 Debian、/etc/network/interfaces),即 eth1、eth2 为其相应的上行链路并将它们绑定到 bond0 自动处理路由?

如果我想对客户端机器进行 NAT,它们是否使用绑定设备的 IP 作为网关?bond0 设备是进入 iptables nat 规则的设备吗?

谢谢

linux bandwidth nic bonding

3
推荐指数
3
解决办法
8220
查看次数

LACP 吞吐量问题

一段时间以来,我一直在为 LACP 实现而苦苦挣扎,而变量的数量确实越来越多。

现在我的设置是两台运行 2008R2 的主机,每台主机都连接到一个 Force10 S50 交换机。

在交换机上,我相信 LACP 设置正确且动态。

使用先进的 Intel 驱动程序,我在两台主机上都设置了动态聚合。每个主机都连接了一个 Pro/1000 PT LP NIC,我正在聚合 2 条 1gig 线路。

传输测试文件时出现问题。任务管理器显示 2gbps 组合线路的最大使用率为 49%。

什么可能导致这种行为?

bonding windows-server-2008-r2 lacp

3
推荐指数
1
解决办法
1824
查看次数

linux 中的 VLAN 配置未在 tcpdump 中显示标签

我绑定了 2 个 NIC 并指定了 11 的 VLAN 标记

cat /etc/sysconfig/network-scripts/ifcfg-bond0.11

DEVICE=bond0.11
ONBOOT=yes
VLAN=yes
NM_CONTROLLED=no
STP=no
HOTPLUG=no
Run Code Online (Sandbox Code Playgroud)

ifconfig bond0.11 192.168.211.6 netmask 255.255.255.0 
Run Code Online (Sandbox Code Playgroud)

然后

tcpdump -i bond0.11 -n -e 
Run Code Online (Sandbox Code Playgroud)

不显示任何 VLAN 标签

即使物理接口或交换机有任何问题,为什么我在进入接口时在 tcpdump 中看不到标记的流量。

linux vlan bonding

3
推荐指数
1
解决办法
1713
查看次数