10GbE VMware 分布式交换机的 iSCSI 设计选项?MPIO 与 LACP

eww*_*ite 9 networking iscsi vmware-esxi vmware-vsphere lacp

我正在为我的数据中心的几个 VMware vSphere 5.5 和 6.0 集群扩展存储后端。在我的 VMware 经验(Solaris ZFS、Isilon、VNX、Linux ZFS)中,我主要使用 NFS 数据存储,并且可能会在环境中引入Nimble iSCSI 阵列,以及可能的Tegile (ZFS) 混合阵列

当前的存储解决方案是 Nexenta ZFS 和基于 Linux ZFS 的阵列,它们为 vSphere 主机提供 NFS 挂载。网络连接通过存储头上的 2 个 10GbE LACP 中继和每个 ESXi 主机上的 2 个 10GbE 提供。这些交换机是配置为MLAG 对等体的Arista 7050S-52架顶式设备。

在 vSphere 方面,我在 2 个 10GbE 上行链路和网络 I/O 控制 (NIOC)分配共享的虚拟机端口组、NFS、vMotion 和管理流量上使用配置了 LACP 绑定的 vSphere 分布式交换机 (vDS) 。

在此处输入图片说明

这种解决方案和设计方法多年来一直运行良好,但添加 iSCSI 块存储对我来说是一个重大转变。在可预见的未来,我仍然需要保留 NFS 基础设施。

我想了解如何在不改变物理设计的情况下将 iSCSI 集成到此环境中。ToR 交换机上的 MLAG 对我来说非常重要。

  • 对于基于 NFS 的存储,LACP 是提供路径冗余的普遍接受的方法。
  • 对于 iSCSI,LACP 通常不受欢迎,推荐的方法是 MPIO 多路径设计。
  • 我在任何地方都使用 10GbE,并希望保持与每台服务器的简单双端口链接。这是为了简化布线和设计。

鉴于上述情况,我如何才能充分利用 iSCSI 解决方案?

  • 通过 LACP 配置 iSCSI?
  • 在 vDS 上创建 VMkernel iSCSI 适配器并尝试将它们绑定到单独的上行链路以实现某种变异 MPIO?
  • 添加更多网络适配器?

小智 1

我不建议在 LACP 上运行 iSCSI,因为与基本链路冗余相比,它确实没有任何好处。

使用软件 iSCSI HBA 在 vDS 上为 iSCSI 创建 VMkernel 交换机正是您应该做的事情。这将为您提供真正的 MPIO。这篇博客文章似乎与您尝试做的事情有些相关,忽略了从标准交换机迁移的需要:https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from-标准交换机到分布式交换机/

如果您已经有两个用于 iSCSI 的网络适配器,则不需要添加更多网络适配器。不过,我建议您在 iSCSI 网络上启用巨型帧 (MTU 9000)。必须在网络的各个级别(例如 VMkernel、vDS、物理交换机和 SAN 设备)进行设置。