在我家,我正在运行 Hyper-V 服务器,其中 Windows Server 2008 R2 VM 充当文件服务器。使用 SMB 在我的网络上共享文件。(另外,机器使用的是 PERC 6/i RAID 卡,但我认为这并不重要)
我正在考虑设置一个专用的 SAN (iSCSI) 机器,然后将我的 Hyper-V 服务器切换到 ESXi。
使用 iSCSI 与 SMB 相比有哪些优势?
我想我仍然需要一个文件服务器操作系统(例如 Win 2k8)通过 SMB 共享文件,所以我不确定最终结果会与我当前的设置有什么不同......
我正在重组我的家庭网络,它现在包括一个 NAS 盒,除其他外,它允许我通过 iSCSI 导出分区。现在我想摆脱我的 Windows 机器中的硬盘,因为它会产生相当多的噪音并且不提供冗余,所以我想从网络启动并将我的系统安装在 iSCSI 上。
由于 NAS 机器运行 Linux,这对于个人来说已经足够了,我愿意用自己的方式解决一些问题。我知道 Windows 的启动顺序与 Linux 非常相似,因为引导加载程序将内核和一组初始驱动程序加载为 blob,然后调用内核,然后从引导加载程序留下的映像中初始化和加载驱动程序,然而,在这种情况下,问题在于细节。
我的方法是提供一个 iSCSI 启动器作为 EFI 引导服务,它应该允许加载程序检索内核和驱动程序,但是我看到初始安装的问题(网络驱动程序在安装程序中的 SCSI 驱动程序之后加载),以及网络驱动程序可以是引导驱动程序依赖链的一部分。
是否可以在启动过程的早期加载网络驱动程序,如果是,我能否以某种方式影响启动驱动程序集合映像的准备,以便将它们包含在内?我可以绕过安装程序限制吗?
我正在设置家用 NAS 设备 (Synology DS409),我计划将其用于 Time Machine 备份(除其他外)。
使用 iSCSI 或 AFP 挂载备份卷之间的权衡是什么?
该群晖维基表明,iSCSI是更好,如果苹果将被从网络或睡眠频繁断开,从成交量来看会自动重新安装的点。文件系统一致性如何?鉴于在没有正确卸载的情况下拔下 USB 驱动器通常需要修复 Time Machine 卷,iSCSI 是否会出现同样的问题?
我正在尝试为我们正在进行的一些存储项目重新投入 Unix 游戏。我们很乐意为此使用joyents smartos(基于illumos)。
使用它是一种真正的乐趣(设置 vms 等),但我无法让 iscsi 工作。
我很想简单地共享一个 zfs 设备作为 iSCSI 连接点,但无法让它工作。我也不能让 smb 或 nfs 工作,但这些属性至少存在,我相信它们会工作。
我能找到的文档似乎有点杂乱无章,有一些旧的solaris、新的solaris、illumos 等。这是可以理解的,因为它是一个新版本。
有人有任何指示吗?
我已经试过了
zfs set shareiscsi=on zones/name
Run Code Online (Sandbox Code Playgroud)
这导致“未知属性”。无论如何它都没有列在 zfs 属性中。
我也试过
sbdadm create-lu /dev/zvol/rdsk/zones/
Run Code Online (Sandbox Code Playgroud)
但这导致
sbdadm: unknown error
Run Code Online (Sandbox Code Playgroud)
itadm 也不可用,并且“svcs”中未列出包含 iSCSI 的服务。
任何帮助是极大的赞赏。
更新:似乎 iscsi 是由 COMSTAR 提供的,与旧的 solaris 提供的方式不同,因此不支持 set shareiscsi。
更新:我发现需要为它启动 stmf 服务(与 COMSTAR 相关)。遗憾的是它处于维护模式(svcs|grep stmf)登录 /var/svc/log/system-stmf:default.log 说:
svc-stmf: Unable to load the configuration. See /var/adm/messages for details
Run Code Online (Sandbox Code Playgroud)
/var/adm/messages 说:
svc:/system/stmf:default: Method "/lib/svc/method/svc-stmf start" failed with exit status 1. …Run Code Online (Sandbox Code Playgroud) 我刚刚接触了几个 DL380 G5,我想我会在我的家庭实验室中使用它们来测试使用 iSCSI 存储设置创建 Hyper-V 集群。我在所有三个上都安装了 Server 2012 R2,并在一个主机上创建了几个 iSCSI 磁盘/LUN,所有 8 个磁盘都在 RAID 10 中运行。
所有三台服务器都至少有 6 个 NIC,所以我决定我的最佳选择是在存储服务器上使用 4 个用于 iSCSI,1 个用于主机管理,1 个备用。然后在 hyper-v 节点上,我将 2 个用于 iSCSI,2 个用于 VM lan,1 个管理和 1 个备用。
为了获得最佳性能,我首先将管理和存储流量分离到单独的交换机上。存储主机使用 2012 的内置 NIC 组合功能将 NIC 组合到单个接口/IP(根据本文,目标端支持此 NIC 组合设置)。在 Hyper-V 主机上,我将它们分开并安装 MPIO(使用本章节的指南),设置从每个 NIC 到存储 IP 的路径。
我的查询基本上围绕着这个;在存储主机上进行磁盘测试时,我获得了大约 250MB/s 的读/写速度(在物理卷上,以及我的 iSCSI 指向的挂载 VHDX)。当我在 hyper-v 主机上使用单个 NIC 并附加该 iSCSI LUN 时,我得到大约 95-100MB/s(由于单个千兆接口,预期结果)。然后,当我设置第二个 NIC 时,我的读取和写入速度上升到大约 150MB/s,我原以为会接近 200MB/s。当在混合中添加第三个 NIC 时,我的读写速度仍然在 150MB/s 左右。
我知道我不应该期待与我在主机上进行的测试相同的结果,但我觉得奇怪的是它的上限为 150MB/s。我在交换机和所有 NIC 上都启用了巨型帧,但我似乎无法克服这个上限。我应该在这里执行任何其他步骤,或者这是否是这种设置中的预期传输速率?
iscsi ×5
afp ×1
boot ×1
cluster ×1
home-server ×1
hyper-v ×1
nas ×1
netboot ×1
networking ×1
smb ×1
storage ×1
time-machine ×1
windows ×1
zfs ×1