我需要一双新鲜的眼睛。
我们正在使用一条 15 公里的光纤线路,光纤通道和 10GbE 跨该线路复用(无源光 CWDM)。对于 FC,我们有适合长达 40 公里的长距离激光器(Skylane SFCxx0404F0D)。多路复用器受 SFP 的限制,该 SFP 最多可以执行。4Gb 光纤通道。FC 交换机是 Brocade 5000 系列。FC 的相应波长为 1550、1570、1590 和 1610nm,10GbE 的波长为 1530nm。
问题是 4GbFC 结构几乎从不干净。有时,即使流量很大,它们也会持续一段时间。然后它们可能会突然开始产生错误(RX CRC、RX 编码、RX 差异,...),即使它们只有边际流量。我附上了一些错误和交通图。当流量为 1Gb/s 时,错误目前大约为每 5 分钟 50-100 个错误。
这是总结的一个端口的功率输出(使用sfpshow不同的交换机收集)
SITE-A 单位=uW(微瓦) SITE-B
**************************************************
FAB1
SW1 TX 1234.3 RX 49.1 SW3 1550nm (ko)
接收 95.2 发送 1175.6
FAB2
SW2 TX 1422.0 RX 104.6 SW4 1610nm(正常)
接收 54.3 发送 1468.4
在这一点上,我觉得奇怪的是功率水平的不对称性。SW2以1422uW发射,SW4以104uW接收,而SW2仅以54uW接收与原始功率相近的SW4信号。
SW1-3 反之亦然。
无论如何,SFP 的 RX 灵敏度低至 …
我在 eth0 上添加了一个标记的 VLAN:
#ip link add link eth0 name eth0.20 type vlan id 20
Run Code Online (Sandbox Code Playgroud)
这导致:
#ip link
2: eth0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 9c:c7:a6:95:65:1c brd ff:ff:ff:ff:ff:ff
....
12: eth0.20@eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP
link/ether 9c:c7:a6:95:65:1c brd ff:ff:ff:ff:ff:ff
#ip -d link show eth0.20
70: eth0.20@eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP
link/ether 9c:c7:a6:95:65:1c brd ff:ff:ff:ff:ff:ff
vlan id 20 <REORDER_HDR>
#cat /proc/net/vlan/config
VLAN Dev name | VLAN ID
Name-Type: VLAN_NAME_TYPE_RAW_PLUS_VID_NO_PAD
eth0.234 …Run Code Online (Sandbox Code Playgroud) 谁能告诉我内存哪里去了:(不,这次既不是缓冲区也不是缓存)
# free
total used free shared buffers cached
Mem: 3928200 3868560 59640 0 2888 92924
-/+ buffers/cache: 3772748 155452
Swap: 4192956 226352 3966604
Run Code Online (Sandbox Code Playgroud)
顶部,按内存排序,降序:
top - 13:42:06 up 1 day, 3:47, 2 users, load average: 0.08, 0.12, 0.36
Tasks: 228 total, 1 running, 227 sleeping, 0 stopped, 0 zombie
Cpu0 : 2.0%us, 4.0%sy, 0.0%ni, 90.1%id, 0.0%wa, 0.0%hi, 4.0%si, 0.0%st
Cpu1 : 0.0%us, 0.0%sy, 0.0%ni, 0.0%id,100.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 3928200k total, 3868020k used, 60180k free, 2896k buffers
Swap: 4192956k …Run Code Online (Sandbox Code Playgroud) 为什么人们总是说对于端口处于全双工模式的交换机,背板容量需要端口数乘以带宽乘以 2?
让我们举个例子。以 4 端口 1Gb 交换机为例。显然是全双工,因为 1GbE 不做半双工。
现在:
所有四个端口现在都使用了 2Gb/s (RX+TX)(如果您查看端口)。然而,只有四个实际的 1Gb/s 流,如下所示:
为什么有人声称这里需要8 Gb/s 背板?这是营销伎俩吗?
以更简单的 2 端口交换机为例?为什么我需要一个 4Gb/s 的背板呢?
iotop 未显示的磁盘上可能会写入什么内容?
# iotop -a
Total DISK READ: 8.19 M/s | Total ****DISK WRITE: 3.34 M/s****
TID PRIO USER DISK READ DISK WRITE> SWAPIN IO COMMAND
428 be/4 root 0.00 B 84.00 K 0.00 % 0.02 % [kjournald]
2600 be/3 root 0.00 B 8.00 K 0.00 % 0.01 % auditd -s disable
2582 be/4 root 0.00 B 4.00 K 0.00 % 0.00 % syslog-ng
Run Code Online (Sandbox Code Playgroud)
(iotop 不使用 -o 运行)
你如何解释这一点?
# iostat
Linux 3.0.51-0.7.9-default (x) 03/10/13 _x86_64_
avg-cpu: %user %nice %system …Run Code Online (Sandbox Code Playgroud) 比较这个
#免费-m
缓存的已用空闲共享缓冲区总数
电话:72363 68035 4328 0 522 66294
-/+ 缓冲区/缓存:1218 71145
交换:12291 0 12291
和这个:
# snmpwalk -c public -v 2c localhost .1.3.6.1.4.1.2021.4 UCD-SNMP-MIB::memIndex.0 = 整数:0 UCD-SNMP-MIB::memErrorName.0 = STRING:交换 UCD-SNMP-MIB::memTotalSwap.0 = 整数:12586888 kB UCD-SNMP-MIB::memAvailSwap.0 = 整数:12586784 kB UCD-SNMP-MIB::memTotalReal.0 = 整数:74100516 kB UCD-SNMP-MIB::memAvailReal.0 = 整数:4429580 kB UCD-SNMP-MIB::memTotalFree.0 = 整数:17016364 kB UCD-SNMP-MIB::memMinimumSwap.0 = 整数:16000 kB UCD-SNMP-MIB::memBuffer.0 = 整数:534804 kB UCD-SNMP-MIB::memCached.0 = 整数:44238560 kB UCD-SNMP-MIB::memSwapError.0 = INTEGER: noError(0) UCD-SNMP-MIB::memSwapErrorMsg.0 = 字符串:
为什么免费为“缓存”显示 66294MB 而snmp 为“memCached”显示大约 44238MB?不应该是一样的吗?
查看 MIB,我看到“memCached”是用于缓存的“物理或虚拟”内存。(不要告诉我它会将磁盘缓存放入交换区)^^
目标是free通过snmp找出真正的空闲物理内存(即此处为 71145,如 …
我们目前有一个我不太喜欢的 DHCP 设置。
两台 DHCP 服务器:
一切似乎都正常工作,但可能只是因为仅包含 ProxyIP 的那个通常比实际分配 IP 地址的速度快。
你怎么认为?(特别是关于正在考虑两个报价的部分,而我认为应该只选择一个)
linux ×3
dhcp ×2
io ×1
memory ×1
memory-usage ×1
net-snmp ×1
networking ×1
storage ×1
switch ×1
vlan ×1