我有多路径 IO 配置的 server 2012 刀片,在 MPIO 路径故障期间显示如下警告:
磁盘 7 的逻辑块地址 0 处的 IO 操作已重试。
我知道是什么导致警告发生,所以我不是在寻找原因,但这条消息实际上意味着什么?
这是否意味着如果这个 IO 是一个写操作,那么服务器实际上丢失了它试图写的数据?
感谢您提供有关此警告消息含义的任何线索。
将我的第一台服务器连接到 iSCSI 目标,我想我可以通过将我的 NIC 组合到服务器上(传统的 802.3ad 团队)来开始运行。
但是,从许多在线资源来看,我认为不建议这样做,而应使用 MPIO(此建议中没有具体的大小调整,似乎适用于从 3 节点集群到包含数十个节点及以上节点的大型集群)。
我知道 MPIO 更好,因为它通过独立的路由聚合传输(而传统的 NIC 团队将在同一个交换机上),除此之外,微软和培训材料状态是否还有其他原因(数据损坏的风险)使用 MPIO 而不是团队?
我有一台装有 Windows 2008 R2 SP1 操作系统的 BL460c G7 刀片服务器。这是一个全新的 C7000 机柜,带有 FlexFabric 互连。我设置了我的 FC 交换机并正确分区到我们的 Clariion CX4,并且可以看到在 Navisphere 和 HP Virtual Connect Manager 的两条路径上分配了 FCoE HBA 的所有主机。
所以我继续为测试服务器创建一个存储组,分配适当的主机,将 LUN 分配给服务器。到目前为止一切顺利,登录服务器,我可以看到 4 个未知磁盘.... 没问题,我安装了 MS MPIO,没有运气,无法初始化磁盘,多个磁盘没有消失。还是没问题,我安装PowerPath 5.5版重启。现在我看到 3 个磁盘。一个已经初始化,可以使用了,但是我还有2个磁盘不能初始化,不能离线,不能删除。如果我右键单击存储管理器并转到属性,我可以看到 MS MPIO 选项卡,但我无法激活路径。
我想摆脱这些幻影磁盘,但到目前为止没有任何工作,谷歌搜索显示了一些奇怪的结果,所以显然我没有正确地提出我的问题。我想我会很快在这里问。有谁知道摆脱这些未知磁盘的快速方法。
另一个问题,如果我安装了 PowerPath,是否需要安装 MPIO 功能?这是我第一次以这种方式安装 Windows 2008 R2,我不确定现在是否需要该功能。
因此,要添加更多信息。看来我处理的 Windows 问题比其他任何问题都多。我从服务器中删除了 LUN,完全卸载了 PowerPath,从服务器中删除了 MPIO 功能,然后重新启动了两次。现在我回到原来的 4 个未知磁盘(当然还有包含操作系统分区的本地磁盘 0,它工作正常)
我去了diskpart,我可以看到所有4个未知磁盘,我选择了每个磁盘,运行干净(以防万一我以前以某种方式将它们作为GPT联机但没有意识到)几分钟后我不再能够当我运行 list disk 时查看磁盘。但是,磁盘仍在磁盘管理中。当我尝试从磁盘管理中使磁盘脱机时,出现错误:虚拟磁盘管理器 - 系统找不到指定的文件。伴随系统事件日志中的错误:
Log Name: System
Source: Virtual Disk Service
Date: 6/25/2012 4:02:01 PM
Event ID: 1
Task …Run Code Online (Sandbox Code Playgroud) storage-area-network diskmanagement windows-server-2008-r2 mpio
考虑具有两个相同 WS2012R2 服务器的配置。两者都有四端口网络板。每个都有一个 NIC 连接到由其他服务器共享的子网,并最终可供客户端计算机访问。每台服务器上的其余三个端口都是“网卡绑定”,并连接到仅由相关的两台服务器共享的不同子网。我希望看到的是 SMB 流量优先通过更快的 3-nic 路径,并且仅在必要时才求助于更拥挤的 1-nic 路径。
我可以相信 SMB3 中的负载平衡在这里做正确的事情吗?如果没有,我可以应用某种类似于 tcp/ip 路由成本的权重吗?
我正在构建一个新的子集群,因此我面临的问题很少。
(我出于好奇问第二个问题,只是想听听您的意见)
我听说与以太网和 FC 相比,以太网连接速度较慢。
最近拥有戴尔 PowerVault MD3600i 的用户遇到了一些奇怪的结果。
我有一个专用的 24x 10GbE 交换机 (PowerConnect 8024),设置为 9K 巨型帧。
MD3600 有 2 个 RAID 控制器,每个控制器有 2 个 10GbE 以太网网卡。开关上没有其他东西;一个 VLAN 用于 SAN 流量。
这是我的 multipath.conf
defaults {
udev_dir /dev
polling_interval 5
selector "round-robin 0"
path_grouping_policy multibus
getuid_callout "/sbin/scsi_id -g -u -s /block/%n"
prio_callout none
path_checker readsector0
rr_min_io 100
max_fds 8192
rr_weight priorities
failback immediate
no_path_retry fail
user_friendly_names yes
# prio rdac
}
blacklist {
device {
vendor "*"
product "Universal Xport"
}
# devnode "^sd[a-z]"
}
devices …Run Code Online (Sandbox Code Playgroud) 我有一个带有四个网络接口的 FreeNAS 服务器。iSCSI 流量通过其中两个接口,每个接口在不同的子网中都有一个 IP 地址。例如:
igb0:192.168.10.1/24 igb1:192.168.11.1/24
共有三台 XenServer 主机,其中只有一个接口专用于 iSCSI 流量。因此,在示意图中,存储上有两个接口,主机上总共有三个接口。
我的计划是与主机实现高达 2Gbit 的连接,限制为每台主机 1Gbit。
问题始于不同的子网划分。我不知道如何将两个不同的 IP 地址放在 XenServer 主机的同一个网络接口上。XenCenter 根本就不允许我这样做。另一个想法是用不同的 VLAN 隔离这种流量。没关系,但这似乎也不起作用。
编辑:不幸的是 LACP 没有按预期工作,FreeNAS 文档上有更多信息:“LACP 和其他形式的链路聚合通常不适用于虚拟化解决方案。在虚拟化环境中,考虑通过创建 iSCSI MPIO一个 iSCSI 门户。这允许 iSCSI 启动器识别到目标的多个链接,利用它们来增加带宽或冗余。此操作方法包含在 ESXi 上配置 MPIO 的说明。”
这就是为什么我试图设置 MPIO,即使使用 VLAN 和 hacks 来实现 2Gbit/s 的存储。