在我的 freenas 服务器上,zpool status
告诉我我有 2 个 zfs 池:data
& freenas-boot
:
% zpool status
pool: data
state: ONLINE
scan: scrub repaired 0 in 0 days 04:16:16 with 0 errors on Mon Nov 20 00:59:24 2017
config:
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
gptid/3e08fdba-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3eba62c2-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/3f704246-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
gptid/40249d11-4564-11e7-bdef-00fd45fc38ec ONLINE 0 0 0
errors: No known data errors
pool: freenas-boot
state: ONLINE
scan: scrub repaired 0 in 0 days 00:00:13 with 0 errors on Sun Mar 4 03:45:14 2018
config:
NAME STATE READ WRITE CKSUM
freenas-boot ONLINE 0 0 0
ada0p2 ONLINE 0 0 0
errors: No known data errors
Run Code Online (Sandbox Code Playgroud)
我想获得有关我的data
zpool 的统计信息,但zdb
给了我一个错误:
% sudo zdb -b data
zdb: can't open 'data': No such file or directory
Run Code Online (Sandbox Code Playgroud)
但它适用于freenas-boot
游泳池:
% sudo zdb -b freenas-boot
Traversing all blocks to verify nothing leaked ...
loading space map for vdev 0 of 1, metaslab 55 of 119 ...
2.56G completed ( 881MB/s) estimated time remaining: 0hr 00min 00sec
No leaks (block sum matches space maps exactly)
bp count: 281124
ganged count: 0
bp logical: 5928553472 avg: 21088
bp physical: 2636954624 avg: 9380 compression: 2.25
bp allocated: 3376803840 avg: 12011 compression: 1.76
bp deduped: 0 ref>1: 0 deduplication: 1.00
SPA allocated: 3376803840 used: 2.64%
Dittoed blocks on same vdev: 50961
Run Code Online (Sandbox Code Playgroud)
我究竟做错了什么 ?
小智 7
不管出于什么原因,FreeNAS 上的缓存路径是不同的。他们没有给 zdb 打补丁来知道默认情况下在哪里查找。
添加-U /data/zfs/zpool.cache <POOLNAME>
到 zdb 的所有用途以使其正常工作。
对于您的示例,命令为:zdb -U /data/zfs/zpool.cache -b data
小智 2
我在 OmniOS 上遇到了这个问题,zdb
无法打开我的rpool
. 该问题是由 zfs 元数据中的 guid 与磁盘的实际 guid 不匹配引起的。我猜这是更换损坏的硬件并在 zpool 之间移动磁盘的结果......
解决方案是使用zfs detach
镜子及其zfs attach
背面的一个装置。
归档时间: |
|
查看次数: |
1725 次 |
最近记录: |