Dan*_*Dan 12 freebsd zfs freenas raidz zpool
我需要更换 FreeNAS 上 zpool 中的坏磁盘。
zpool status 显示
pool: raid-5x3
state: ONLINE
scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014
config:
NAME STATE READ WRITE CKSUM
raid-5x3 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ada5p2 ONLINE 0 0 0
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0
ada8p2 ONLINE 0 0 0
ada10p2 ONLINE 0 0 0
ada7p2 ONLINE 0 0 0
errors: No known data errors
pool: raid2
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-2Q
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
raid2 DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open
gptid/60570005-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
errors: No known data errors
Run Code Online (Sandbox Code Playgroud)
glabel status 显示
Name Status Components
ufs/FreeNASs3 N/A da0s3
ufs/FreeNASs4 N/A da0s4
ufsid/4fa405ab96518680 N/A da0s1a
ufs/FreeNASs1a N/A da0s1a
ufs/FreeNASs2a N/A da0s2a
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca N/A ada1p2
gptid/60570005-3ff2-11e2-9437-f46d049aaeca N/A ada3p2
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca N/A ada4p2
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca N/A ada6p2
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca N/A ada9p2
gptid/4599731b-8f15-11e1-a14c-f46d049aaeca N/A ada10p2
Run Code Online (Sandbox Code Playgroud)
camcontrol devlist 显示
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus0 target 0 lun 0 (pass0,ada0)
<ST3000VX000-9YW166 CV13> at scbus4 target 0 lun 0 (pass1,ada1)
<ST3000VX000-9YW166 CV13> at scbus6 target 0 lun 0 (pass3,ada3)
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus7 target 0 lun 0 (pass4,ada4)
<ST3000DM001-9YN166 CC4C> at scbus8 target 0 lun 0 (pass5,ada5)
<WDC WD30EZRX-00MMMB0 80.00A80> at scbus8 target 1 lun 0 (pass6,ada6)
<WDC WD30EZRX-00MMMB0 80.00A80> at scbus9 target 0 lun 0 (pass7,ada7)
<ST3000DM001-9YN166 CC4C> at scbus9 target 1 lun 0 (pass8,ada8)
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus10 target 0 lun 0 (pass9,ada9)
<Hitachi HDS5C3030ALA630 MEAOA580> at scbus11 target 0 lun 0 (pass10,ada10)
< USB Flash Memory 1.00> at scbus12 target 0 lun 0 (pass11,da0)
Run Code Online (Sandbox Code Playgroud)
我很确定那ada2是坏磁盘。
上次我在盒子里时,我似乎在那里留下了一个备用的 - ada0。我可以远程用ada0替换ada2吗?直到有人到达办公室?用什么命令?
这是我不明白的地方:
glabel status?zpool status为某些磁盘显示那些长 gptid,而为其他磁盘显示“ada”名称?zpool replace raid2——我对设备和新设备名称使用什么?Ouk*_*uki 17
FreeNAS是一个 NAS 解决方案,因此,一些技术选择隐藏在此类设备可以使用的任何固件、系统或 GUI 之后。
如果您在使用FreeNAS制作的 ZFS 池中的给定磁盘上获得分区架构(小型 VM 示例):
$ glabel status
Name Status Components
gptid/a699226f-bcc4-11e3-952d-0800271cd34d N/A ada4p2
gptid/a6cfc072-bcc4-11e3-952d-0800271cd34d N/A ada5p2
gptid/a707f034-bcc4-11e3-952d-0800271cd34d N/A ada6p2
Run Code Online (Sandbox Code Playgroud)
仔细看看磁盘ada4:
$ gpart show ada4
=> 34 62914493 ada4 GPT (30G)
34 94 - free - (47k)
128 4194304 1 freebsd-swap (2.0G)
4194432 58720095 2 freebsd-zfs (28G)
Run Code Online (Sandbox Code Playgroud)
FreeNAS的是增加一个小的交换每个添加的磁盘上的分区,剩余的磁盘空间正对第二分区(又名p2为ada4p2)。
为什么 ?
为什么不。恕我直言,这可能与分区对齐有关,但也可能仅仅是因为FreeNAS通常安装在 USB 密钥或一些小型 CF 驱动器上而没有任何交换(或者一个是另一个的借口)。
关于您的问题:
为什么 ada0、ada2、ada5、ada7 和 ada8 不出现在 glabel 状态?
glabel是 GEOM 标签的缩写。因此它只显示有关支持的分区/文件系统的信息(有关支持的分区的更完整列表,请参阅man glabel)。在这种情况下,不会显示磁盘本身和交换分区。
为什么会zpool status为某些磁盘显示那些长 gptid,而为其他磁盘显示“ada”名称?
与问题 1 相同:因为 GEOM 标签,或者在那种特殊情况下,缺少它。
有时分区没有通过 glabel 启动/标记(或者他们丢失了这个信息)。在所有情况下:不要太担心,这只是命名问题。因此,如果一个分区具有 gptid 而另一个分区具有简单的设备名称,则不会是世界末日。
当然,一旦分区位于 zpool(阻止您修改已使用分区的系统 - 有意义)中,您就无法更改标签。
如果我想zpool replace raid2——我对设备和新设备名称使用什么?
正如所见,让FreeNAS为您设置有关磁盘分区的设置可能会更好:更换FreeNAS上出现故障的驱动器。
但是,也可以手动完成而无需担心分区(重新镀银将自动启动,并且会持续您在进行擦洗时使用的时间 - 为您提供数量级):
$ zpool replace raid2 gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca /dev/ada0
Run Code Online (Sandbox Code Playgroud)
重新镀银完成后,您将有类似的东西:
$ zpool status raid2
pool: raid2
state: ONLINE
scan: resilvered ...G in ?h?m with 0 errors on Sun Apr 6 17:17:25 2014
config:
NAME STATE READ WRITE CKSUM
NAME STATE READ WRITE CKSUM
raid2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
replacing-0
gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open
ada0 ONLINE 0 0 0
gptid/60570005-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
Run Code Online (Sandbox Code Playgroud)
然后zpool detach raid2 gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca从 zpool 中删除故障设备。
当您用新磁盘更换有故障的磁盘时,您仍然可以计划更好/更“在线”的更换。我建议您在 VM 上仔细设置并准备所有内容(因为您似乎对此不熟悉)。
ZFS 是一个很好的文件系统,具有许多强大的功能,但它需要规划。
欲了解更多信息:
| 归档时间: |
|
| 查看次数: |
19622 次 |
| 最近记录: |