我有一台 NAS 服务器,带有 4 个 2TB WD RE4-GP 驱动器,采用 RAID10 配置(4TB 可用)。我的空间不足(剩余可用空间小于 1TB)。我有 0 美元可用于购买更大/更多驱动器/机箱。
我喜欢我读到的有关 ZFS 数据完整性特性的内容,这些特性本身就足以让我从现有的 XFS(软件)RAID10 切换。然后我读到了 ZFS 对 RAID5 的卓越实现,所以我想我什至可以使用 RAIDZ-1 在讨价还价的情况下获得多达 2TB 的可用空间。
不过,我一直在读更多和更 帖子说差不多,只是从不使用RAIDZ-1。只有 RAIDZ-2+ 足够可靠来处理“现实世界”驱动器故障。当然,就我而言,RAIDZ-2 没有任何意义。在单个池 (RAID10) 中使用两个镜像 vdev 会好得多。
我是不是很想将 RAIDZ-1 用于 4 个 2TB 驱动器?
我应该只使用一个包含两个镜像 vdev(基本上是 RAID10)的池,并希望压缩能给我足够的额外空间吗?
无论哪种方式,我都计划使用压缩。我只有 8GB 的 RAM(最大),因此无法进行重复数据删除。
这将在 FreeNAS 服务器上(即将替换当前的 Ubuntu 操作系统)以避免 ZFS-on-Linux 的稳定性问题。
我需要更换 FreeNAS 上 zpool 中的坏磁盘。
zpool status 显示
gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open
Run Code Online (Sandbox Code Playgroud)
如何找到该磁盘的序列号?
更多的:
glabel status 给出:
Name Status Components
ufs/FreeNASs3 N/A da0s3
ufs/FreeNASs4 N/A da0s4
ufsid/4fa405ab96518680 N/A da0s1a
ufs/FreeNASs1a N/A da0s1a
ufs/FreeNASs2a N/A da0s2a
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca N/A ada1p2
gptid/60570005-3ff2-11e2-9437-f46d049aaeca N/A ada3p2
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca N/A ada4p2
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca N/A ada6p2
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca N/A ada9p2
gptid/4599731b-8f15-11e1-a14c-f46d049aaeca N/A ada10p2
Run Code Online (Sandbox Code Playgroud)
我gptid/5fe33556在那里看不到。
并camcontrol devlist给出:
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus0 target 0 lun 0 (pass0,ada0)
<ST3000VX000-9YW166 CV13> at scbus4 target 0 lun …Run Code Online (Sandbox Code Playgroud) 我的 NAS 盒中有 6 个驱动器。其中两个是希捷,他们返回高 RAW_VALUES 错误;见下文。
我的其他驱动器显示的值要低得多。
这是报警的原因吗?或者只是希捷报告的方式?
看看Raw_Read_Error_Rate和Seek_Error_Rate:
# smartctl -a /dev/ada1
=== START OF INFORMATION SECTION ===
Device Model: ST3000DM001-9YN166
Serial Number: W1F09S26
LU WWN Device Id: 5 000c50 0456076fc
Firmware Version: CC4C
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 4
Local Time is: Sat Aug …Run Code Online (Sandbox Code Playgroud) 在我们的 FreeNAS 服务器上,zpool status给我:
pool: raid2
state: ONLINE
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://www.sun.com/msg/ZFS-8000-9P
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
raid2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0 …Run Code Online (Sandbox Code Playgroud) 现在我们的服务器已经设置好了,我想重命名我们的 zpools。
我在某处读到这样做的方法是以新名称导出和重新导入。但是我所有的挂载点和共享会保持不变吗?还是我必须重新设置这些?
关于 FreeNAS 上的 ZFS RAIDZ,什么是“热备份”?
我希望这意味着一个额外的附加磁盘可以自动接管 RAID 中的故障磁盘......?
如果是这样,我该如何设置?
我有一个带有四个网络接口的 FreeNAS 服务器。iSCSI 流量通过其中两个接口,每个接口在不同的子网中都有一个 IP 地址。例如:
igb0:192.168.10.1/24 igb1:192.168.11.1/24
共有三台 XenServer 主机,其中只有一个接口专用于 iSCSI 流量。因此,在示意图中,存储上有两个接口,主机上总共有三个接口。
我的计划是与主机实现高达 2Gbit 的连接,限制为每台主机 1Gbit。
问题始于不同的子网划分。我不知道如何将两个不同的 IP 地址放在 XenServer 主机的同一个网络接口上。XenCenter 根本就不允许我这样做。另一个想法是用不同的 VLAN 隔离这种流量。没关系,但这似乎也不起作用。
编辑:不幸的是 LACP 没有按预期工作,FreeNAS 文档上有更多信息:“LACP 和其他形式的链路聚合通常不适用于虚拟化解决方案。在虚拟化环境中,考虑通过创建 iSCSI MPIO一个 iSCSI 门户。这允许 iSCSI 启动器识别到目标的多个链接,利用它们来增加带宽或冗余。此操作方法包含在 ESXi 上配置 MPIO 的说明。”
这就是为什么我试图设置 MPIO,即使使用 VLAN 和 hacks 来实现 2Gbit/s 的存储。