我有一个通过光纤通道连接到 Linux 机器的 SAN 存储阵列的严重问题。这是配置:
基本上问题是:如何得到这个#?@!! FC 控制器/驱动程序可以正确识别存储阵列的配置更改(新的或删除的 LUN)?
rescan-scsi-bus -l -w -r
实际上检测到一些东西(一个通用的 /dev/sgXX 设备)但是没有块设备已创建 (/dev/sdXX)。发出 LIP 并手动重新扫描时,同样的事情:
回声 1 > /sys/class/fc_host/host6/issue_lip
echo "- - -" > /sys/class/scsi_host/host6/scan
如果我删除现有的 LUN,则发出 LIP 和重新扫描或 rescan-scsi-bus 都不会产生任何影响。以前的设备保留在那里,当然不起作用(“file -s /dev/sdXX -> I/O error”)。
显然,这是QLogic 的一个非常常见的问题。存在某种解决方案,仅当使用仅适用于 RedHat 和 Suse 企业发行版的 QLogic 发布的驱动程序时才有效:请参阅此说明。
附加信息 :
这是 LIP 和重新扫描之前的 scsi 设备:
# …
Run Code Online (Sandbox Code Playgroud) 我在 Debian 机器 (Lenny) 中安装了 QLogic 光纤通道卡,在与固件进行了一些冲突后,我设法让操作系统识别了该卡(DKMS 驱动程序,以及固件的“firmware-qlogic”包) .
但是,出于某种原因,没有为暴露给该单元的两个 SAN 卷创建块设备。它们出现在我“cat /proc/scsi/scsi”但没有我可以看到的 /dev/sdX 块设备时,我必须每次需要运行 rescan-scsi-bus.sh shell 脚本/dev/sgX 设备返回。
我怎样才能让系统持续识别那些光纤通道卷?
编辑:发现看到的双设备是我们与 SAN 阵列一起使用的多路径 I/O 系统的一部分。在将卷识别为块设备之前是否需要设置多路径 i/o?
我们购买了一些带有 QLogic/Broadcom BCM57810 PCI Express 卡的 Dell PowerEdge R730 服务器,并将它们连接到 Cisco 4900M 交换机 - 10Gb 链接不能可靠地工作。它们有时无法连接,有时几分钟后连接,当它们连接时,它们一天掉线几次。断开连接可持续 4 分钟或 2 小时。
Cisco 交换机拥有与 Dell PowerVault SAN 的现有 10Gb 铜缆链路,这些链路已稳定运行数月。
我在 VMware 日志中看到断开连接的消息如下:
bnx2x 0000:82:00.1: vmnic5: NIC Link is Down
Run Code Online (Sandbox Code Playgroud)
和
network connectivity on virtual switch "vSwitch2". Physical NIC vmnic5 is down.
Run Code Online (Sandbox Code Playgroud)
我看不到任何有用的错误代码或之前的消息,只能看到由链接丢失引起的消息。在 Windows 上,它显示为断开连接的卡,在交换机上显示为断开连接的交换机端口。
当链接连接时,它们工作 - 巨型帧 ping ping、iSCSI 会话建立、数据存储出现以及找到的所有路径。但是连接是断断续续的。
我们已经检查过: