我正在 Supermicro X6DHE-XB 3U 机箱中构建基于 FreeNAS 的服务器,该机箱具有 4G RAM、16 个 SATA 热插拔托架。它带有 2x8 端口的 3Ware RAID 卡,但我计划只使用 ZFS 功能而不是硬件 RAID。我的初始驱动器组将是 8x2TB HITACHI Deskstar 7K3000 HDS723020BLA642 驱动器。
如果我使用基于硬件的 RAID,它会在驱动器发生故障的驱动器托架上给我一个红灯。当驱动器出现故障时,它如何与 ZFS 一起工作?我觉得sda=bay1、sdb=bay2等没有任何保证,那么你如何确定需要更换哪个驱动器?ZFS 可以向 SATA 控制器报告以打开“故障驱动器”指示灯吗?它是否只报告驱动器序列号?如果驱动器故障如此严重以至于无法报告其序列号怎么办?我想最好在上线之前写下每个驱动器的序列号以及它进入哪个托架。是否还有其他“预生产”任务可以使将来更容易更换驱动器?
我需要更换 FreeNAS 上 zpool 中的坏磁盘。
zpool status 显示
pool: raid-5x3
state: ONLINE
scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014
config:
NAME STATE READ WRITE CKSUM
raid-5x3 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ada5p2 ONLINE 0 0 0
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0
ada8p2 ONLINE 0 0 0
ada10p2 ONLINE 0 0 0
ada7p2 ONLINE 0 0 0
errors: No known data errors
pool: raid2
state: DEGRADED
status: One or more …Run Code Online (Sandbox Code Playgroud) 我计划在不久的将来构建一个 FreeNAS 盒子,但如果 Linux 上的 ZFS 最终被证明是可靠的,我可能想切换,只是为了拥有一个更熟悉的操作系统。
所以我想知道我是否可以相信 ZFS 的不同实现是兼容的。换句话说,如果我只是将引导盘从 FreeNAS 换到 Linux 或 OpenIndiana,我能相信我的数据不会发生任何坏事吗?
这似乎是一个愚蠢的问题——显然它应该是兼容的——但我猜 ZFS 不常用于在计算机之间移动驱动器的情况,所以我希望有人能提供比只是“它应该是”。
FreeNAS 11.2
我在 ZFS 池中有一个 USB 启动设备和 4 个硬盘。我希望这 4 个磁盘在不被访问时(即大部分时间)降速。
在存储 -> 磁盘中,我将“HDD Standby”设置为 20 分钟,将“Adv. Power Management”级别设置为 127。
磁盘现在旋转下来,但几乎立即旋转起来。我还需要做什么才能让磁盘停止旋转并保持旋转直到用户操作需要池?
我有 FreeNAS 公开 NFS。如何从 Windows 7 访问它?我在 Windows 功能中启用了“NFS 服务”。
我有两台运行 FreeBSD 变体的服务器:一台是 pfSense 路由器,另一台是 FreeNAS 8 服务器。这两个服务器都运行 SNMP,我正在使用第三个 Cacti 服务器收集和绘制它们的信息。
来自 pfSense 服务器和 FreeNAS 服务器的 SNMP 数据不包括内存使用、CPU 使用和负载平均。
pfSense 服务器的流量图看起来不错。来自 FreeNAS 服务器的磁盘使用报告看起来很漂亮。我只是没有得到任何关于内存使用、CPU 使用和负载平均的数据。我知道这两个服务器都应该能够提供这些数据,因为在 pfSense 和 freeNAS 网络管理员中我可以查看图表。但为了便于管理,我更愿意将所有图表都放在 Cacti 中。
如何让我的 pfSense 服务器通过 SNMP 提供内存使用情况、CPU 使用情况和负载平均数据?如何让我的 FreeNAS 服务器通过 SNMP 提供内存使用、CPU 使用和负载平均数据?我假设相同的过程适用于两台服务器。
在我们的 FreeNAS 服务器上,zpool status给我:
pool: raid2
state: ONLINE
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://www.sun.com/msg/ZFS-8000-9P
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
raid2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0 …Run Code Online (Sandbox Code Playgroud) 我计划使用两个 2 tb 驱动器和两个 1tb 驱动器设置 FreeNAS ZFS 池。我想以某种方式拥有数据冗余。我读了这篇文章,似乎暗示我的两个选择是使用 RAIDZ 每 2tb 驱动器丢失 1tb 或使用此命令(这使数据冗余所需的空间加倍):
zfs set copies=2 poolname
Run Code Online (Sandbox Code Playgroud)
有没有更好的方法来处理这个问题并实现更像 Drobo 的 Beyond RAID 或 Netgear 的 XRAID?或者,我可以将每个 2tb 驱动器分区为 1 tb 分区并将两个分区放入池中吗?
我刚刚购买了一个打算与 FreeNAS 一起使用的 HP 微服务器。它需要更多 RAM,所以我尝试按照说明拉出系统板图纸以访问 DIMM 插槽。这样做需要移除连接到主板的所有电缆,包括“Mini-SAS”电缆。电缆看起来像是有一个超大的 USB 式连接器,带有一个金属夹子,可以将其锁定到位,类似于 RJ-45 连接器的塑料夹子。尽我所能,我无法解锁它,所以我打电话给 HP 技术支持,他们让我继续拉扯它,但仍然无济于事。
根据有关断开电缆的 HP 视频,我在想系统可能附带损坏的连接器。有没有人使用过这些系统之一?您能评论一下断开该电缆的难度吗?
(现在系统无法启动,HP 建议我进行更换,我打算这样做,但我发现自己想知道下一个设备是否会遇到同样的问题。)
我有一台 FreeNAS (11.1-U1) 和一台 FreeBSD (11.1-RELEASE-p6) 机器。在 FreeNAS 上,我想以zfs receive具有委派权限的非 root 用户身份递归快照。这似乎适用于大多数子数据集。但是 iocage 的data数据集可以安装到监狱中并从那里管理,它们失败了:
root@freebsd:~> zfs send -RI "dozer@2018-02-21" "dozer@2018-03-08" | ssh -T -i /root/backup_key backupuser@freenas zfs receive -dvuF neo/backups/freebsd
receiving incremental stream of dozer@2018-03-03 into neo/backups/freebsd@2018-03-03
received 312B stream in 1 seconds (312B/sec)
receiving incremental stream of dozer@2018-03-07 into neo/backups/freebsd@2018-03-07
received 312B stream in 1 seconds (312B/sec)
receiving incremental stream of dozer@2018-03-08 into neo/backups/freebsd@2018-03-08
received 312B stream in 1 seconds (312B/sec)
receiving incremental stream of …Run Code Online (Sandbox Code Playgroud)