sys*_*138 10 storage storage-area-network fibre-channel
我们为我们的光纤通道结构准备了一对新的 8Gb 交换机。这是一件好事,因为我们的主数据中心的端口已经用完了,这将使我们能够在两个数据中心之间运行至少一个 8Gb ISL。
当光纤运行时,我们的两个数据中心相距约 3.2 公里。几年来,我们一直在获得稳定的 4Gb 服务,我非常希望它也能维持 8Gb。
我目前正在研究如何重新配置我们的结构以接受这些新交换机。由于几年前的成本决定,我们没有运行完全独立的双回路结构。完全冗余的成本被认为比不太可能的交换机故障停机时间更昂贵。那个决定是在我之前做出的,从那时起事情并没有太大改善。
我想借此机会使我们的结构在遇到交换机故障(或 FabricOS 升级)时更具弹性。
这是我正在考虑的布局图。蓝色项目是新的,红色项目是将被(重新)删除的现有链接。

(来源:sysadmin1138.net)
红色箭头线是当前的 ISL 交换机链路,两个 ISL 都来自同一交换机。EVA6100 当前连接到两个具有 ISL 的 16/4 交换机。新交换机将允许我们在远程 DC 中拥有两个交换机,其中一些远程 ISL 正在迁移到新交换机。
这样做的好处是每台交换机与另一台交换机的距离不超过 2 跳,并且两个 EVA4400 之间的距离为 1 跳,这两个 EVA4400 将处于 EVA 复制关系。图表中的 EVA6100 是一个较旧的设备,最终将被替换,可能会被另一个 EVA4400 替换。
图表的下半部分是我们大多数服务器所在的位置,我对确切位置有些担忧。里面需要什么:
目前,在我们必须开始关闭虚拟机以腾出空间之前,ESX 集群最多可以容忍 3 台,也许是 4 台主机停机。令人高兴的是,一切都开启了 MPIO。
目前的 4Gb ISL 链接还没有达到我注意到的饱和状态。这可能会随着两个 EVA4400 的复制而改变,但至少其中一个 ISL 将是 8Gb。看看我从 EVA4400-A 中获得的性能,我非常肯定,即使有复制流量,我们也很难跨越 4Gb 线路。
4 节点文件服务集群可以在 SAN1SW4 上有两个节点,在 SAN1SW1 上有两个节点,因为这将使两个存储阵列相距一跳。
10 个 ESX 节点让我有些头疼。三个在 SAN1SW4 上,三个在 SAN1SW2 上,四个在 SAN1SW1 上是一个选项,我很想听听关于布局的其他意见。其中大多数都有双端口 FC 卡,所以我可以双运行几个节点。不是全部,但足以允许单个开关失败而不会杀死所有东西。
SAN1SW3 和 SAN1SW2 这两个 MS-SQL 盒子需要继续使用,因为它们需要靠近它们的主存储并且 db-export 性能不太重要。
LTO4 驱动器目前在 SW2 上,距离主流媒体有 2 跳,所以我已经知道它是如何工作的。那些可以保留在 SW2 和 SW3 上。
我不想让图表的下半部分成为全连接拓扑,因为这会将我们的可用端口数从 66 减少到 62,而 SAN1SW1 将是 25% 的 ISL。但如果强烈推荐我可以走那条路。
更新:一些可能有用的性能数据。我有它们,我只是指出它们对此类问题很有用。
上图中的 EVA4400-A 执行以下操作:
EVA6100 要忙得多,因为它是 ESX 集群、MSSQL 和整个 Exchange 2007 环境的所在地。
如果您有任何建议,我将不胜感激。
抱歉耽搁了。
看看你有什么以及你想要实现什么,我有一些想法,首先这是一张漂亮的照片......

所以这就是我的想法 - 有一些调整需要进行,但我的一般想法在那里 - 随时回来给我任何澄清。
| 归档时间: |
|
| 查看次数: |
958 次 |
| 最近记录: |