我正在尝试在 Ubuntu 14.04 中绑定 2 个 WIFI 卡。
我已经安装了 ifenslave-2.6,然后更改了 /etc/network/interfaces并添加了一个 /etc/wpa_supplicant0.conf和/etc/wpa_supplicant1.conf 文件 ,如下所示。
不能让它工作,请指教。2 个 WIFI 卡显示已连接,请参阅下面的iwconfig。 还可以在下面找到诊断消息。
我在接口文件中尝试了各种 wpa 细节的变化,在接口中使用 ifenslave 上下,但没有运气。
谢谢你。
/etc/网络/接口
# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback
iface eth1 inet manual
#wlan0 is manually configured, and slave to the "bond0" bonded NIC
allow-hotplug wlan0
auto wlan0
iface wlan0 inet manual
bond-master bond0
bond-primary …
Run Code Online (Sandbox Code Playgroud) 我有一个带有两个以太网端口的服务器,我已将它们与以下配置绑定在一起/etc/network/interfaces
:
# The loopback network interface
auto lo
iface lo inet loopback
# The primary network interface
auto eth0
iface eth0 inet manual
bond-master bond0
auto eth1
iface eth1 inet manual
bond-master bond0
auto bond0
iface bond0 inet static
address 192.168.0.300
gateway 192.168.0.1
netmask 255.255.255.0
dns-nameservers 8.8.8.8 8.8.4.4
bond-mode balance-rr
bond-miimon 100
bond-slaves eth0 eth1
Run Code Online (Sandbox Code Playgroud)
所以目前,所有连接都通过bond0
. 我需要另一个接口,例如bond1
可以在单独的 IP 地址上运行的接口,例如192.168.0.301
.
我知道为了仅通过eth0
界面实现这一点,我需要附加:
auto eth0:0
iface eth0:0 inet static
(and so on)
Run Code Online (Sandbox Code Playgroud)
但是我将如何通过网络绑定来解决这个问题?沿着线的东西 …
大家好,我在按照本指南设置 Ubuntu Bonding 时遇到问题。
我的interfaces
文件看起来像这样:
auto eth0
iface eth0 inet manual
bond-master bond0
auto eth1
iface eth1 inet manual
bond-master bond0
auto bond0
auto iface inet static
address 10.1.10.30
netmask 255.255.255.0
dns-nameservers 10.1.10.50
gateway 10.1.10.2
bond-mode balance-rr
bond-miimon 100
bond-lacp-rate 1
bond-slaves none
Run Code Online (Sandbox Code Playgroud)
我可以从另一台 ISP 上的另一台计算机 ping Google 和我的外部静态 IP(我为它分配了一个与路由器的静态一对一 NAT 地址,并禁用了路由器的防火墙以进行故障排除)。但是,在 Ubuntu 机器上,我无法 ping 它的网关 10.1.10.2(即使它使用它来访问 Google 哈哈),也无法 ping 任何其他内部地址。
如果我注释掉绑定并且只使用 eth0 或 eth1 一切正常。有什么想法吗?
我的/etc/network/interfaces
其中一台服务器(比如 server1)中有以下内容。在另一台服务器上(比如 server2)。内容/etc/network/interfaces
类似。除了mac地址相应更改,ip地址更改为192.168.2.2。两台服务器上都安装了 Ubuntu 13.10。
但是当我iperf -s
在server1上使用并iperf -c 192.168.2.1
测试速度时。我只能获得大约 10Gbps 的速度(单个 NIC 的速度)。我的交换机配置为第 2 层交换机。有人知道如何通过绑定使速度达到20Gbps吗?谢谢。
auto em1
iface em1 inet manual
hwaddress ether c8:1f:66:e2:90:43
bond-master bond0
auto em2
iface em2 inet manual
hwaddress ether c8:1f:66:e2:90:45
bond-master bond0
auto bond0
iface bond0 inet static
address 192.168.2.1
netmask 255.255.255.0
network 192.168.2.0
bond-mode 4
bond-miimon 100
bond-lacp-rate 1
bond-slaves em1 em2
Run Code Online (Sandbox Code Playgroud)
的输出iperf
如下。
server2:~$ iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP …
Run Code Online (Sandbox Code Playgroud) 如何将 eth1 配置为 eth0 的故障安全系统。
当eth0下降时eth1上升,当eth0上升时eth1下降
我有带有 2 个以太网卡和一个 WiFi 卡的 Ubuntu 13.04。我也有 3 个 ISP 连接。我必须将 linux 配置为使用所有 3 个连接。我主要关心的是增加 Ubuntu 的传出带宽(FTP 流量)。
我找到了两种可能的解决方案:
Ubuntu 绑定
绑定,也称为端口中继或链路聚合,意味着将多个网络接口 (NIC) 组合到单个链路,提供高可用性、负载平衡、最大吞吐量或这些的组合。有关详细信息,请参阅维基百科。
IspUnity
开源框架,旨在同时集成(负载平衡和故障转移)多个互联网连接。该项目于 2012 年 2 月 14 日由 Arun Tomar 启动,此后由合作团队扩展。
如果您集成了多个互联网连接,能否请您推荐首选哪种方法或回答以下任何问题:
先感谢您
更新 谷歌搜索数小时后,我发现了非常有用的文章如何配置系统以使用 2 或 3 个连接而无需链接绑定。作为临时解决方案,它对我有用,但主要问题仍然非常重要。
我有一个物理接口(eth0)和两个虚拟接口(eth0:1, eth0:2),两个虚拟接口都有公共 IP 地址。我想将这两个虚拟接口绑定成bond0
,如你所见/etc/network/interfaces
:
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 144.yy.xx.124
netmask 255.255.255.224
network 144.yy.xx.96
broadcast 144.yy.xx.127
gateway 144.yy.xx.109
dns-nameservers 8.8.8.8 4.2.2.2 4.2.2.4
auto eth0:1
allow-bond0 eth0:1
iface eth0:1 inet static
address 148.aa.bb.197
netmask 255.255.255.248
bond-master bond0
bond-primary eth0:1
auto eth0:2
allow-bond0 eth0:2
iface eth0:2 inet static
address 148.cc.dd.198
netmask 255.255.255.248
bond-master bond0
auto bond0
iface bond0 inet static
address 10.31.1.5
netmask 255.255.255.0
network 10.31.1.0 …
Run Code Online (Sandbox Code Playgroud) 尝试应用 netplan 时出现此错误。eno2 存在,但 netplan 说它尚未定义。
network:
version: 2
renderer: networkd
bonds:
bond0:
interfaces: [eno1, eno2]
addresses: [192.168.0.104/24]
gateway4: 192.168.0.1
parameters:
mode: 802.3ad
nameservers:
addresses: [192.168.0.2]
dhcp4: false
optional: true
Run Code Online (Sandbox Code Playgroud)
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 00:00:00:00:00:da brd …
Run Code Online (Sandbox Code Playgroud) 我在 Ubuntu 18.04 服务器上配置 netplan 以绑定使用 802.3ad 协议命名的四个硬件以太网端口时遇到一些问题eno1, eno2, eno3, eno4
。我查阅了 netplan手册页并将以下配置文件放在一起/etc/netplan/50-cloud-init.yaml
:
network:
version: 2
renderer: networkd
ethernets:
eports:
match:
name: eno*
bonds:
bond0:
interfaces: [eports]
addresses: [192.168.1.101/24]
gateway4: 192.168.1.1
nameservers:
addresses: [8.8.8.8, 8.8.4.4]
parameters:
mode: 802.3ad
lacp-rate: fast
mii-monitor-interval: 100
Run Code Online (Sandbox Code Playgroud)
运行命令后,sudo netplan --debug apply
我收到以下信息:
** (generate:6473): DEBUG: 00:39:14.911: Processing input file //etc/netplan/50-cloud-init.yaml..
** (generate:6473): DEBUG: 00:39:14.911: starting new processing pass
** (generate:6473): DEBUG: 00:39:14.911: eports: setting default backend to 1
** …
Run Code Online (Sandbox Code Playgroud) 我正在尝试在绑定中设置故障回复配置,但我无法绕过接口配置。我的界面如下:
auto bond0
iface bond0 inet static
address 192.168.1.39
netmask 255.255.255.0
up /sbin/ifenslave bond0 eth1 eth3
down /sbin/ifenslave -d bond0 eth1 eth3
Run Code Online (Sandbox Code Playgroud)
我的 /etc/modprobe.d/bonding.conf 文件是:
alias bond0 bonding
options bonding mode=3
Run Code Online (Sandbox Code Playgroud)
我通过从其他系统运行 ping 来测试它。我的保单状态如下:
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: fault-tolerance (broadcast)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: …
Run Code Online (Sandbox Code Playgroud) 我在 18.04 系统上运行 Netplan。我已经能够锻炼并将我的大部分网络配置从我的 16.04 系统转换为 18.04 的 Netplan,但是我现在在尝试将 MTU 设置为 9000 时遇到了问题一个 VLAN。
我的配置:
# Ceph network configuration
network:
version: 2
renderer: networkd
ethernets:
eth2:
dhcp4: no
dhcp6: no
optional: true
mtu: 9000
eth3:
dhcp4: no
dhcp6: no
optional: true
mtu: 9000
bonds:
bond1:
interfaces: [ eth2, eth3 ]
parameters:
mode: 802.3ad
mii-monitor-interval: 100
lacp-rate: fast
vlans:
bond1.220:
id: 220
link: bond1
mtu: 9000
bridges:
br-ceph-access:
addresses: [ x.x.x.x/24 ]
interfaces: [ bond1.220 ]
parameters:
forward-delay: 9
hello-time: 2 …
Run Code Online (Sandbox Code Playgroud)