所以这真的让我感到困惑。
显然,因为 1Gbit 可以同时在两个方向传输数据,所以应该可以在单个 NIC 上获得 2Gbit 的数据传输(1Gbit 流和 1Gbit 接收)。人们声称因为 1Gbit 是全双工的(几乎总是),所以它总共正好是 2Gbit。我的直觉和电气背景告诉我,这里有些不对劲 4 双绞线 250Mbit 容量每对 1Gbit。除非真的可以同时双向传输数据。
我用iperf做了一个测试。Ubuntu 服务器 12.04 <--> MacBook Pro。两者都具有不错的CPU速度。单独测试连接速度和在 Mac 上我可以看到 112MB/s,无论数据去哪个方向。在带有 vnstat 和 ifstat 的 Ubuntu 上,我获得了 970Mbit 的速度。现在,同时在两台机器上以服务器模式启动 iperf 并使用 2 个 iperf 客户端发送数据表明我在 Ubuntu 机器上以 600Mbit 发送,接收 350Mbit。这加起来几乎是 1Gbit 的链接。
所以对我来说没有神奇的 2Gbit。有人可以证实这一点或告诉我为什么我错了吗?
另一件让我困惑的事情是,例如 24 端口交换机具有例如:吞吐量»高达»至:»50.6Mpps交换»容量:»68Gbps交换机»结构»速度:»88Gbps
这表明每个端口可以处理 2GBit。
更新
我用 iperf -s iperf -c 10.0.20.91 -d -t60 再次测试
将窗口设置为 212KB。在上次测试中,我得到了
接收:961.41 Mbit/s 97603 p/s 发送:953.53 Mbit/s 84725 p/s
在服务器 NIC 上,所以肯定是单向 1GBit,同时。
我有一个小型 Hyper-V 环境,但从今天起我无法从 VM ping 到外部,也无法从本地网络 ping 到 VM。
我的情况/网络简而言之:
在我的计算机 (192.168.1.10) 上,我可以 ping 网络中的所有组件,例如 GW 和其他组件。但我无法 ping 虚拟机。
从 VM,我可以 ping 默认网关和其他 VM,但不能 ping 网络中的其他 NIC,例如 192.168.1.10
这曾经有效,我没有改变任何东西,它停止工作。我认为这与 Hyper-V 的虚拟交换机有关,有人知道在哪里看的提示吗?
CentOS 5.8 | VMWare ESX 5.1
当我运行时,ethtool eth0我看到以下内容:
[root@foo ~]# ethtool eth0
Settings for eth0:
Current message level: 0x00000007 (7)
Link detected: yes
Run Code Online (Sandbox Code Playgroud)
有没有办法获得其余的细节?特别是速度和双工?我习惯于 ethtool 输出更冗长。例如:
# ethtool eth0
Settings for eth0:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Supports auto-negotiation: Yes
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Advertised auto-negotiation: Yes
Speed: 100Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 1
Transceiver: internal
Auto-negotiation: on
Supports Wake-on: d
Wake-on: d
Link …Run Code Online (Sandbox Code Playgroud) 我正在尝试使用 iDRAC 7 Express(没有企业许可证,因此我们无法使用专用端口)。在 iDRAC 的设置菜单中,它会要求选择用于 iDRAC 的网络接口。有四种选择:LOM1、LOM2、LOM3 和 LOM4。服务器有 4 个 Broadcom NIC 端口。NIC1 是否对应 LOM1,NIC2 对应 LOM2,等等?
我觉得有点令人费解的是,正如预期的那样,每个单独的 NIC 端口都有自己的 MAC 地址。但是,在 iDRAC 的设置中,无论我选择哪个 LOM,iDRAC 的 MAC 地址似乎都是静态的。我唯一能想到的是 NIC 端口只是将连接“重定向”到 iDRAC 控制器,因此该静态地址用于控制器,而不是 NIC 端口。
目前,机器通过 NIC1 获得常规连接(不是 iDRAC),所以我假设我不想为 iDRAC 选择 LOM1。
收发器通常是否可热插拔,如果不是,我如何确定这些是否是?
使用这些适配器
665243-B21, HP Ethernet 10Gb 2-port 560FLR-SFP+
665249-B21, HP Ethernet 10Gb 2-port 560SFP+
Run Code Online (Sandbox Code Playgroud)
和这些收发器
455883-B21, HP BLc 10GB SR SFP+ opt
PSFP10-2321SF, PEAKOPTICAL SFP+ 10Km 1310nm DFB w/DDMI
Run Code Online (Sandbox Code Playgroud) 我有一台装有 CentOS 6.5 和 2x 1Gbps 以太网卡的服务器,我添加了一个新接口(Intel(R) 10 Gigabit PCI Express Network),但问题出在。是系统没有检测带有 ( ifconfig -a) 或 ( ifcfg-ethX) 文件的以太网信息。
我尝试了以下方法:
ifconfig -a: 不显示新的 NIC 信息或 MAC。/etc/udev/rules.d/70-persistent-net.rules并重新启动。试图ifcfg-eth2用真实HwAddr但仍然显示的新文件:
Bringing up interface eth2:
Device eth2 does not seem to be present, delaying initialization. [FAILED]
Run Code Online (Sandbox Code Playgroud)rmmod ixgbe; modprobe ixgbe的输出dmesg:
ixgbe: Intel(R) 10 Gigabit PCI Express Network Driver - version 3.15.1-k
ixgbe: Copyright (c) 1999-2013 Intel Corporation.
ixgbe 0000:03:00.0: PCI INT …Run Code Online (Sandbox Code Playgroud)我有一个在 VMWare ESX 上运行 CentOS 5.x 的设备。
最近我将它升级到更新版本的 CentOS(仍然是 5.x),我注意到网卡无法初始化。
如果我运行,service network restart我会收到一个错误:
[root@foobox] service network restart
Shutting down loopback interface: [ OK ]
Bringing up loopback interface: [ OK ]
Bringing up interface eth0: e1000 device eth0 does not seem to be present, delaying initialization [ FAILED ]
Run Code Online (Sandbox Code Playgroud)
当我检查 esx 服务器上的 NIC 属性时,我收到一个与之相关的奇怪注释/错误:Invalid Backing. 话虽如此,一些较旧的服务器也有同样的注释/警告,并且从网络角度来看工作正常,所以我认为这可能是一个红鲱鱼。
当我运行modprobevmxnet3 驱动程序时,我得到了不同的服务器结果:
在旧系统上,我得到以下信息:
[root@foobox2] modprobe vmxnet3
[root@foobox2]
Run Code Online (Sandbox Code Playgroud)
但是在这个新升级的系统上,如果我运行相同的命令,我会得到以下信息:
[root@foobox] modprobe vmxnet3
FATAL: Module vmxnet3 not found.
[root@foobox]
Run Code Online (Sandbox Code Playgroud)
对我来说,这表明驱动程序不存在或不可用。这是一个有效的测试吗?如何确认我的 …
谁能告诉我我运行什么命令来确定我的 10G 网卡是在单 RX-TX 队列模式还是多队列模式下运行?根据它看起来只有 1 个 RX/TX 队列cat /proc/interrupts
root@hostname:scripts]# cat /proc/interrupts | grep ens1f0
94: 360389979 0 0 0 184 0 330 0 0 0 0 0 0 0 0 0 0 169 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge ens1f0-TxRx-0
95: 4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 …Run Code Online (Sandbox Code Playgroud) 我需要购买多端口网卡,因为我需要用一个替换4个网卡。例如它们是:
https://www.amazon.com/HP-NC364T-Gigabit-Server-Adptr/dp/B000P0NX3G
但问题是:因为这样需要换多个网卡,每个端口都会连接到不同的网络。这些端口仅用于负载平衡还是可以用作单独的端口(具有不同的 IP)?
例如,Xen Server 如何识别这张卡,它会添加 4 个端口吗?
检查网卡环形缓冲区:
# ethtool -g eth0
Ring parameters for eth0:
Pre-set maximums:
RX: 4096
RX Mini: 0
RX Jumbo: 0
TX: 4096
Current hardware settings:
RX: 256
RX Mini: 0
RX Jumbo: 0
TX: 256
Run Code Online (Sandbox Code Playgroud)
人们可以将“RX/TX”设置为“预设最大值”中显示的限制,例如:
# ethtool -G eth0 rx 4096 rx 4096
Run Code Online (Sandbox Code Playgroud)
问题是:默认情况下;为什么这些设置如此低(在我拥有的每台服务器中,它们都为 256)而不是更高的值或其硬件最大功能?增加这些值是否有任何缺点(如果有的话?)?
nic ×10
centos ×3
networking ×3
ethtool ×2
hardware ×2
linux ×2
10gbethernet ×1
capacity ×1
centos5 ×1
drac ×1
fiber ×1
gigabit ×1
hp ×1
hyper-v ×1
intel ×1
interrupts ×1
kernel ×1
lom ×1
maximum ×1
performance ×1
port ×1
redhat ×1
vmware-esxi ×1
xen ×1