标签: multipath

SAN、ISCSI 和多路径 (MLAG?)

我对使用 ISCSI 和多路径设置 SAN 有点困惑。我们正在将我们的网络升级到 10Gbit,因此有 2 个 10Gbit 交换机配置了 MLAG,用于正常的以太网流量。LAG 组是在适当的 NIC 上创建的,因此仅适用于以太网。

现在有一个带有 2 个控制器的 SAN。每个控制器包含 4 个 10Gbit NIC。所以我最初的计划是在每个控制器上使用所有 4 个 NIC 来最大化吞吐量,因为有多个服务器连接到 SAN。

连接的服务器包含 2 个用于 SAN 流量的专用 10Gbit NIC。每个 NIC 连接到其中一个交换机。这些接口上没有 LAG,它们在 SAN 网络中配置了一个静态地址。

  1. SAN 的 2 个控制器可以在同一个子网中吗?所以要有一个主要的SAN网络。还是每个控制器都需要一个独立的段?
  2. 每个 SAN 控制器的 4 个 NIC 怎么样?我是否只在每个控制器的 LACP 组中捆绑 2 个 NIC?还是根本不需要 LAG?我有点困惑什么是合理的配置。将每个控制器的 2 个 NIC 连接到一台交换机?我是否会在 SAN 网络中为每个 NIC 分配一个专用地址并总共使用所有 8 个地址进行多路径处理?

好吧,正如人们所见,我不是存储专家,...:-)


所以我得到了关于问题 1 的更新。假设我要使用每个 SAN 控制器的 2 个 NIC(为了暂时保持简单,不是全部 4 个),使用两个不同的子网是有意义的。这似乎增加了 MPIO 被有效使用的机会。

如果所有 …

iscsi storage-area-network multipath

6
推荐指数
1
解决办法
1178
查看次数

获得 1,000 个公共 IP 地址的最便宜的方法是什么?

获得 1,000 个公共 IP 地址的最便宜的方法是什么?

我需要为 1,000 个 SSL 证书提供安全 (https) 页面,并且每个 SSL 证书都需要一个单独的 IP 地址。

所以,我正在寻找这样做的最经济的方法。

hosting ssl ip-address multipath ssl-certificate

5
推荐指数
2
解决办法
448
查看次数

使用 Linux 时,为什么我的 MPIO 连接到 SAN 的速度上限为 1 Gbps?

我正在将 RHEL5 盒连接到 Dell EqualLogic PS5000X,即使在使用带有三个千兆位 NIC 的 MPIO 时也看到最大 1 Gbps。

我在 PS5000X 上拥有所有三个接口,在连接到同一交换机的服务器上拥有三个专用 iSCSI 接口。当使用多个接口连接到 SAN 时,每个接口只能获得 1/n 的流量。我遵循了戴尔设置指南,除了我的吞吐量数字外,一切似乎都运行良好。

[root@testbox ~]# multipath -ll
linuxvol (36090a02840c3bd2f5ec324010000707f) dm-5 EQLOGIC,100E-00
[size=50G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=3][enabled]
 \_ 6:0:0:0  sdf 8:80  [active][ready]
 \_ 14:0:0:0 sde 8:64  [active][ready]
 \_ 15:0:0:0 sdi 8:128 [active][ready]
Run Code Online (Sandbox Code Playgroud)

[root@testbox ~]# dd if=/dev/zero of=/mnt/linuxvol/testfile obs=64k count=16M
16777216+0 records in
131072+0 records out
8589934592 bytes (8.6 GB) copied, 76.4894 seconds, 112 MB/s
Run Code Online (Sandbox Code Playgroud)

我什至可以在传输过程中关闭 iSCSI 会话,并观察剩余连接的接口利用率从 33% 跳到 50% …

iscsi rhel5 multipath centos5

5
推荐指数
1
解决办法
1193
查看次数

iSCSI 多路径:我是否应该配置所有门户,甚至是无法访问的门户?

有时,当您连接到多路径 iSCSI 目标时,您只能访问其部分门户。当启动器直接连接到目标的以太网端口(而不是通过交换机)时,这种情况很常见。

[我手头的此类基础设施的实际示例是具有 4 台直接连接服务器的 Dell MD3200i / MD3220i SAN]

当您进行 iSCSI 发现时,启动器将获得所有门户的列表,甚至包括那些它实际上未连接到且无法与之通信的门户。使用双控制器,每个控制器有四个端口,您会看到类似以下内容:

# iscsiadm --mode discovery --type sendtargets --portal 192.168.130.101
192.168.130.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.131.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.132.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.133.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.130.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.131.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
192.168.132.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11C0123456789012345678901234
192.168.133.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234
Run Code Online (Sandbox Code Playgroud)

...但主机物理连接到第一个 (192.168.130.101) 和第六个 (192.168.131.102) 端口,因此它永远无法与其他六个门户通信。

按照 iSCSI 目标的典型文档,最终会得到发起者“已知”的所有门户,但发起者只会在感兴趣的门户上进行实际登录(上例中为其中两个)。

是否应该从启动器的配置中删除“无法访问”的配置?即使没有实际登录,他们也会造成“已知”的任何问题吗?

iscsi multipath

5
推荐指数
1
解决办法
815
查看次数

从 SAN 挂载磁盘 (RHEL 5.9)

存储管理员告诉我,他从 SAN 的服务器上放置了一个 3TB 驱动器,我被要求安装它。我所知道的唯一信息是它在 LUN 1 上并且磁盘是 3TB。

多路径已设置,我已安装 QLogic 驱动器。我不知道现在该怎么办……有这么多磁盘,我怎样才能找到合适的磁盘来安装呢?我告诉存储人员我在 SAN 上看到了一切,但我只是从他那里得到“我不知道 Linux”。我不确定要问什么问题才能确定要挂载的磁盘。

这是输出fsdisk -l

Disk /dev/cciss/c0d0: 299.9 GB, 299959511040 bytes
255 heads, 63 sectors/track, 36468 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

           Device Boot      Start         End      Blocks   Id  System
/dev/cciss/c0d0p1   *           1          13      104391   83  Linux
/dev/cciss/c0d0p2              14       36468   292824787+  8e  Linux LVM

Disk /dev/dm-0: 32.2 GB, 32212254720 bytes
255 heads, 63 sectors/track, 3916 cylinders
Units = cylinders of 16065 * …
Run Code Online (Sandbox Code Playgroud)

redhat storage-area-network diskmanagement multipath

5
推荐指数
1
解决办法
4071
查看次数

SMB3 多路径能否按策略加权?

考虑具有两个相同 WS2012R2 服务器的配置。两者都有四端口网络板。每个都有一个 NIC 连接到由其他服务器共享的子网,并最终可供客户端计算机访问。每台服务器上的其余三个端口都是“网卡绑定”,并连接到仅由相关的两台服务器共享的不同子​​网。我希望看到的是 SMB 流量优先通过更快的 3-nic 路径,并且仅在必要时才求助于更拥挤的 1-nic 路径。

我可以相信 SMB3 中的负载平衡在这里做正确的事情吗?如果没有,我可以应用某种类似于 tcp/ip 路由成本的权重吗?

server-message-block multipath mpio windows-server-2012

5
推荐指数
1
解决办法
668
查看次数

无法在 Citrix XenServer 中使用多路径连接 iSCSI

亲爱的世界人民。

重新启动后,我在 XenServer 上重新附加 iSCSI 目标时遇到问题。

每当我尝试时,都会遇到几个错误。这是我在重新连接失败后冗余存储的附加屏幕中的我:http : //i.imgur.com/jkBYI1g.png

所以它找到了目标 IQN 和目标 LUN,但在我点击完成后,我收到以下错误:

Scanning for LVM over iSCSI SRs on 192.168.3.1

Logging in to the iSCSI target failed. Check your username and password.

Check your settings and try again.
Run Code Online (Sandbox Code Playgroud)

有趣的是,我在 Synology 中的 Target 上禁用了 CHAP。

即使在 Xen 中删除存储后,然后再次尝试连接,同样的错误。

如果我禁用多路径,我可以很好地附加它。但是,如果我启用多路径,则会出现错误。有谁知道为什么?

iscsi citrix xenserver multipath synology

5
推荐指数
1
解决办法
3141
查看次数

刷新物理设备的uuid

我正在尝试在服务器上克隆一个 LUN 并将其呈现给同一台服务器,但遇到了 UUID 奇怪的问题。我不在 LUN 上创建分区,只创建一个 PV,然后在其上创建 LVM,这样我就可以根据需要在线扩展它。克隆的 LUN 与 LVM 和 PV 的源 LUN 具有相同的 UUID,这是意料之中的。我使用 vgimportclone 更改了 PV 的 UUID,然后使用 tune2fs 更改了 LVM 的 UUID,这些都没有问题。我遇到的是物理磁盘的 UUID,它应该具有与 PV 相同的 UUID,直到我重新启动服务器才会更新。为了加深这个谜团,如果我在底层磁盘的 LUN 上运行 blkid,它会显示旧的 UUID,但如果我在这些相同的磁盘上运行 udevadm,则没有 UUID。

所以我有2个问题。

1) 有人知道 whey blkid 和 udevadm 会显示不同的信息吗?

2)有没有办法在不重启的情况下刷新物理磁盘的UUID?

服务器:RHEL 6.5 device-mapper-multipath-0.4.9-87.el6.x86_64 lvm2-2.02.143-7.el6.x86_64

谢谢,黑暗面

lvm multipath uuid

5
推荐指数
1
解决办法
1221
查看次数

在 iSCSI SAN 上只能访问两个 SFP 端口之一

我有一台带有 HP NC523 双 10GbE 网卡和带有双 10GbE iSCSI 控制器的 HP MSA1040 存储的服务器。

NC523 上的两个端口都配置为绑定。MSA 上的端口具有不同的 IP 地址。

我想将此系统配置为使用 20Gb 带宽(即 linux 服务器上的绑定和 MSA 上的多路径)。不应使用开关,只需直接连接即可。

如果 MSA 的两个端口都用光纤电缆连接,则只能通过 ping 访问一个端口(因此我可能无法初始化多路径)。我交叉检查了所有硬件组件,只要只有一条线将服务器与 MSA 连接起来,所有硬件组件都可以在每种可能的组合中工作。

有人可以建议我解决这个问题吗?

ps

我有另一个类似的服务器,带有一个“普通”的四核 1 GbE 铜质网卡和一个带有四核 1GbE iSCSI 控制器的旧 HP P2000 存储。类似的配置在这里工作没有任何问题。服务器上的四个接口绑定到一个绑定,iSCSI 存储的每个端口都可以 ping 通,也可以使用多路径。两台机器都运行 CentOS 7。

iscsi multipath bonding

5
推荐指数
1
解决办法
482
查看次数

如何使 RAID 控制器重新扫描设备

我有以下设置:

带有两个 LSI MegaRAID SAS 9380-8e 控制器的单个服务器,它们都连接到两个 60 托架磁盘架,同时大致遵循 Edmund White 的设计(参见https://github.com/ewwhite/zfs-ha/wiki)。目标是复制确切的设置,但它目前处于迁移中期。

在为第一个架子布线后,两个控制器都看到了所有 60 个磁盘,并且多路径设置并顺利运行。添加第二个磁盘架时,60 个磁盘上仍有一些旧的 RAID 配置,这两个控制器都尽职尽责地报告。使用第一个控制器,我从磁盘中删除了配置并将它们设置为 JBOD。所有 60 个磁盘现在对操作系统可见并且可以注册到多路径但只报告一个路径(通过控制器 1),第二个控制器仍然将所有 60 个磁盘报告为外部(UGood F)并且似乎没有办法强制让控制器重新扫描设备或忘记这个架子的当前配置:

# /opt/MegaRAID/storcli/storcli64 /c1 /e71 /sall show | head -n20
Controller = 1
Status = Success
Description = Show Drive Information Succeeded.


Drive Information :
=================

-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp 
-----------------------------------------------------------------------
71:0     74 UGood F  3.637 TB SAS  HDD N   N  512B HUS724040ALS640  D  
71:1 …
Run Code Online (Sandbox Code Playgroud)

raid zfs multipath jbod

5
推荐指数
1
解决办法
4779
查看次数