标签: iscsi

如何利用空闲的工作站驱动器空间进行服务器存储/备份

因此,考虑到您现在只能以最便宜的价格获得大约 160GB 的硬盘驱动器,我发现我在整个办公室的工作站上有大量额外的驱动器空间。我想将此空间用作某种类似于 RAID 的冗余阵列,用于低优先级文件和备份。

我有大约 100 个工作站,它们只需要 40GB 的磁盘空间即可运行,这留下了大约 120GB 的备用空间,我已将其分区。我想知道是否有某种方法可以使用 iSCSI 或类似方法将这些分区安装在某种类似 RAID 的阵列中。我的意思是,这就像我可以使用的 12.5TB 磁盘存储空间,工作站不会使用它(它们被锁定并且不允许用户摆弄它)。

此外,工作站始终处于开启状态,因此这不是问题,但系统应该能够容忍由于各种原因(Windows,您知道)重新启动而导致的偶尔停机。

是否有任何现成的解决方案?开源呢?如果没有必要,我宁愿不自己动手。

我的服务器环境是 ESX 3.5,主要是 Windows 主机。SQL Server 等...工作站都是 Windows。

windows raid iscsi vmware-esx

11
推荐指数
1
解决办法
1363
查看次数

IQN 命名约定

我已经看到了很多关于 IQN 应该如何格式化的信息,但是关于如何构建它们的信息并不多。谈到 iSCSI,我是个新手,我可以使用它,但我想知道我是否应该只是编造这些东西,或者是否有充分的理由遵循某种标准。

例如,这就是 (wikipedia http://en.wikipedia.org/wiki/ISCSI#Addressing ) 说您应该格式化 IQN 的方式。

              Naming     String defined by
 Type  Date    Auth      "example.com" naming authority
+--++-----+ +---------+ +-----------------------------+
|  ||     | |         | |                             |     

iqn.1992-01.com.example:storage:diskarrays-sn-a8675309
iqn.1992-01.com.example
iqn.1992-01.com.example:storage.tape1.sys1.xyz
iqn.1992-01.com.example:storage.disk2.sys1.xyz[10]
Run Code Online (Sandbox Code Playgroud)

我的问题特别是,为什么要约会?它可以是任何东西,它意味着什么吗?这里有执法吗?我会不会遇到把“错误”日期放进去会咬我的地步?

域示例是否因某种原因被颠倒(如 dns)?如果我有一个像 starkindustries.pri 这样的域名,我的 iqn 会像:

iqn.2006-05.pri.starkindustries:Linux:array0
Run Code Online (Sandbox Code Playgroud)

这取决于DNS吗?(经验告诉我它不是,但它可能会以微妙的方式失败)如果它依赖于 DNS,我是使用主机名还是仅使用我的域名?即 Jarvis.starkindustries.pri 或只是 starkindustries.pri ?

另外,如果我使用 IP 地址(有些人建议您不使用 DNS,这会更令人困惑,因为它在没有 DNS 的情况下工作)您是否像使用 dns 一样反转它?即 10.1.2.0

iqn.2006-05.0.2.1.10:Linux:array0 
Run Code Online (Sandbox Code Playgroud)

此外,您是否使用主机地址(iSCSI 目标的?)或网络地址。

是否有任何强制执行“由“example.com”命名机构定义的字符串,即有什么原因我不能使用 blahblahblah 还是有用的东西?我意识到一个有用的名称更具描述性,但是否有任何技术原因?我也相信我是“命名权威”的巨大飞跃。

我想最重要的是,我正在为这些 IQN 制作一堆东西,而且它们似乎正在起作用。我只是想至少知道在实际生成 iqns 时在哪里可以找到一些最佳实践。我只是在考虑有一天我不会成为唯一负责存储的人,所以我需要传递一些标准,否则我要么会弄得一团糟,要么让其他人弄得一团糟需要一个新的 IQN 块。

storage iscsi storage-area-network

10
推荐指数
1
解决办法
6942
查看次数

SSD 磁盘和 10 Gb 网络的 iSCSI 性能不佳

iSCSI 目标

Ubuntu 14.04 (Trusty Tahr) 具有 16 GB RAM 和 16 核 CPU 作为 LVM 支持的 iSCSI 目标,使用三个三星 SSD 磁盘,每个磁盘都能够使用带有板载缓存的 LSI 6 Gbit/s 控制器执行 65k IOPS。

目标中 SSD 磁盘的基准测试:

fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=ssd-max

iops=65514
Run Code Online (Sandbox Code Playgroud)

sdd在硬件配置RAID 0使用三个三星850固态硬盘EVO。

发起人

我在具有 32 GB RAM 和 8 个核心 CPU 的 Ubuntu 14.04 客户端上导出了一个 500G LUN。

导出 LUN 的基准测试

fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=client-max

iops=2400 …
Run Code Online (Sandbox Code Playgroud)

linux iscsi ssd open-iscsi

10
推荐指数
1
解决办法
6062
查看次数

iSCSI,同一 LUN 的多个启动器

我有一个分布在 3 个服务器上的 Web 应用程序。这 3 个服务器需要一个共享存储来访问文件。由于 iSCSI 只是一个协议,而不是一个文件系统,因此它不会有任何锁定文件的实现;所以如果我只是按原样连接它,我只会销毁所有数据。

根据我的研究,我需要在这些 LUN 上有一个实际的文件系统,以便按照我打算使用的方式运行。

这将如何运作?如何为 LUN 实现文件系统?

使用的操作系统:Ubuntu 16.* 或 18.*

iscsi storage-area-network

10
推荐指数
2
解决办法
5141
查看次数

9x7 驱动器 raidz2 (ZFS ZoL 0.8.1) 上的缓慢顺序速度

我正在运行一个大型 ZFS 池,该池为 256K+ 请求大小的顺序读写通过 iSCSI(用于备份)在 Ubuntu 18.04 上运行。考虑到对高吞吐量和空间效率的需求,以及对随机小块性能的较少需求,我使用了条带化raidz2而不是条带化镜像。

然而,256K 的顺序读取性能远低于我的预期(100 - 200MBps,峰值高达 600MBps)。当 zvols 在 iostat 中达到 ~99% iowait 时,后备设备通常在 10% 到 40% iowait 之间运行,这向我表明瓶颈是我在配置中缺少的东西,因为它不应该是背板或 CPU这个系统和顺序工作负载不应该让 ARC 工作得太辛苦。

我已经玩了很多模块参数(下面的当前配置),阅读了数百篇文章,OpenZFS github 上的问题等。调整预取和聚合使我达到了这个性能水平 - 默认情况下,我在大约 50MBps 上运行ZFS 向磁盘发送 TINY 请求时的顺序读取 (~16K)。随着聚合和预取工作正常(我认为),磁盘读取要高得多,在 iostat 中平均约为 64K。

NIC 是 LIO iscsi 目标,具有 cxgbit 卸载 + Windows Chelsio iscsi 启动器在 ZFS zvol 之外运行良好,直接映射的 optane 在 NIC 上返回几乎全线速(~3.5GBps 读写)。

是我期待太多了吗?我知道 ZFS 将安全性置于性能之上,但我希望 7x9 raidz2 提供比单个 9 驱动器 mdadm raid6 更好的顺序读取。

系统规格和日志/配置文件:

Chassis: Supermicro 6047R-E1R72L
HBAs: 3x …
Run Code Online (Sandbox Code Playgroud)

performance zfs storage iscsi zfsonlinux

10
推荐指数
1
解决办法
1257
查看次数

iSCSI 和 NFS 超过 1GB 以太网的“良好”速度是多少?

我有一个共享两个 ZFS 文件系统的 OpenSolaris 机器。一种是与运行 VMware 服务器的 CentOS 机器的 NFS 连接(磁盘映像存储在 ZFS 中)。另一个是与 Windows 2008 服务器的 iSCSI 连接,在 ZFS 之上采用 NTFS 格式。两个连接都直接通过 gig-E(无交换机)。

我正在运行 munin 来监控这些盒子,但我不确定我应该期待什么样的数字。任何人都可以给我一些基线数字来比较或就从哪里开始调整提出任何建议吗?

这是我看到的 NFS 统计信息,一旦我在 solaris 机器上修复了 munin,我就会发布 iSCSI :P

界面

nfs客户端

zfs iscsi nfs vmware-server

9
推荐指数
1
解决办法
1万
查看次数

Xen DomU 根文件系统在 iSCSI 虚拟 IP 故障转移时变为只读

我的 Xen 服务器是 openSUSE 11.1,带有 open-iscsi 到我们的 iSCSI SAN 集群。SAN 模块位于启动器连接到的虚拟 IP 后面的 IP 故障转移组中。

如果主 SAN 服务器出现故障,则辅助服务器将充当目标服务器的角色。这一切都由 LeftHand SAN/iQ 软件处理,并且在大多数情况下运行良好。

我遇到的问题是,有时我的一些 Xen DomU 在 IP 故障转移后会使其根文件系统变为只读。它不一致,并且每次发生故障转移时都会发生在不同的子集上。它们都运行相同的 openSUSE 11.1 软件映像。

每个 DomU 的根文件系统通过 open-iscsi 挂载在 Dom0 中,然后 Xen 使用标准块设备驱动程序将其公开给 DomU。

确切的症状是作为 root 运行touch /test返回错误“只读文件系统”。但是,输出mount显示它以读写方式挂载。当然,此时 domU 上的所有其他 I/O 也都失败了,因此机器很难停机。只需xm从 Dom0重新启动它,甚至无需重新连接 iSCSI 会话,一切都会再次运行。

在 Dom0 端,故障转移期间的 syslog 消息类似于以下内容:

kernel: connection1:0: iscsi: detected conn error (1011)
iscsid: Kernel reported iSCSI connection 1:0 error (1011) state (3)
iscsid: …
Run Code Online (Sandbox Code Playgroud)

linux xen iscsi

9
推荐指数
1
解决办法
9755
查看次数

重新启动 Windows 2008 r2 后 iSCSI 驱动器未安装

我有一台装有 Win2008R2 的服务器和一台 Synology NAS。在 Nas 上,有 6 个 iSCSI 分区安装在 Windows 服务器上。Windows 服务器是在 Hyper-V 下虚拟化的。

重新启动客户端计算机后,6 个分区中的两个分区不会重新安装,我必须每次都手动重新安装它们。

每个都有类似的配置,并且都配置了 CHAP 身份验证。所有 6 个都出现在收藏夹列表中。

事件日志未显示有关 iSCSI 的错误。其他 4 个分区安装没有问题。

关于进一步调试的任何建议?

编辑:在与 Synology 交谈后,他们建议禁用 chap 身份验证并启用称为掩码的东西,这基本上是一个过滤器,用于阻止哪些节点可以连接到每个 LUN。这对问题产生了巨大的影响。在断电或类似情况后,它仍然时不时地发生,但在重新启动后,我几乎可以肯定 luns 会重新安装。我猜这是 Windows iSCSI 发起方和身份验证协商中的目标之间的问题。

iscsi windows-server-2008-r2 synology

9
推荐指数
1
解决办法
2万
查看次数

iSCSI/NFS 性能极差的故障排除策略

我们有一个新的 Synology RS3412RPxs,它为三个 Windows 2008 R2 机器提供 iSCSI 目标,为一个 OpenBSD 5.0 机器提供 NFS。

使用 ssh 登录 RS3412 并使用 dd 和各种块大小读取/写入小文件和 6GB 文件,显示出出色的磁盘 I/O 性能。

在 iSCSI/NFS 客户端上使用 dd 或 iometer,我们达到了 20Mbps(这不是打字错误。20 Mbps)。我们有点希望更好地利用 Synology 中的多个 Gbit NIC。

我已经验证交换机和 NIC 端口配置设置为千兆位,而不是自动协商。我们尝试过使用和不使用 Jumboframes,没有任何区别。我已通过 ping 验证 MTU 当前为 9000。已部署两个固件升级。

我将尝试在 iSCSI 目标和启动器之间进行直接链接以排除交换机问题,但我的其他选择是什么?

如果我打破了wireshark/tcpdump,我在寻找什么?

troubleshooting performance iscsi nfs

9
推荐指数
1
解决办法
6430
查看次数

为什么 iSCSI 使用 MPIO 而不是 802.3ad Team

将我的第一台服务器连接到 iSCSI 目标,我想我可以通过将我的 NIC 组合到服务器上(传统的 802.3ad 团队)来开始运行。

但是,从许多在线资源来看,我认为不建议这样做,而应使用 MPIO(此建议中没有具体的大小调整,似乎适用于从 3 节点集群到包含数十个节点及以上节点的大型集群)。

我知道 MPIO 更好,因为它通过独立的路由聚合传输(而传统的 NIC 团队将在同一个交换机上),除此之外,微软和培训材料状态是否还有其他原因(数据损坏的风险)使用 MPIO 而不是团队?

windows windows-server-2008 iscsi storage-area-network mpio

9
推荐指数
1
解决办法
1534
查看次数