标签: zpool

需要在 zpool 中识别磁盘......如何?

我需要更换 FreeNAS 上 zpool 中的坏磁盘。

zpool status 显示

gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca  UNAVAIL      0     0     0  cannot open
Run Code Online (Sandbox Code Playgroud)

如何找到该磁盘的序列号?


更多的:

glabel status 给出:

                                      Name  Status  Components
                             ufs/FreeNASs3     N/A  da0s3
                             ufs/FreeNASs4     N/A  da0s4
                    ufsid/4fa405ab96518680     N/A  da0s1a
                            ufs/FreeNASs1a     N/A  da0s1a
                            ufs/FreeNASs2a     N/A  da0s2a
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca     N/A  ada1p2
gptid/60570005-3ff2-11e2-9437-f46d049aaeca     N/A  ada3p2
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca     N/A  ada4p2
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca     N/A  ada6p2
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca     N/A  ada9p2
gptid/4599731b-8f15-11e1-a14c-f46d049aaeca     N/A  ada10p2
Run Code Online (Sandbox Code Playgroud)

gptid/5fe33556在那里看不到。

camcontrol devlist给出:

<Hitachi HDS723030BLE640 MX6OAAB0>  at scbus0 target 0 lun 0 (pass0,ada0)
<ST3000VX000-9YW166 CV13>          at scbus4 target 0 lun …
Run Code Online (Sandbox Code Playgroud)

freebsd zfs freenas zpool

17
推荐指数
2
解决办法
4万
查看次数

需要更换 zpool 中的磁盘...困惑

我需要更换 FreeNAS 上 zpool 中的坏磁盘。

zpool status 显示

  pool: raid-5x3
 state: ONLINE
 scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014
config:

    NAME                                            STATE     READ WRITE CKSUM
    raid-5x3                                        ONLINE       0     0     0
      raidz1                                        ONLINE       0     0     0
        ada5p2                                      ONLINE       0     0     0
        gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca  ONLINE       0     0     0
        ada8p2                                      ONLINE       0     0     0
        ada10p2                                     ONLINE       0     0     0
        ada7p2                                      ONLINE       0     0     0

errors: No known data errors

  pool: raid2
 state: DEGRADED
status: One or more …
Run Code Online (Sandbox Code Playgroud)

freebsd zfs freenas raidz zpool

12
推荐指数
2
解决办法
2万
查看次数

zpool status 报告错误……接下来怎么办?

在我们的 FreeNAS 服务器上,zpool status给我:

  pool: raid2
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
    attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
    using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-9P
 scrub: none requested
config:

    NAME                                            STATE     READ WRITE CKSUM
    raid2                                           ONLINE       0     0     0
      raidz1                                        ONLINE       0     0     0
        gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca  ONLINE       0     0     0 …
Run Code Online (Sandbox Code Playgroud)

zfs freenas zpool

10
推荐指数
1
解决办法
2万
查看次数

是否可以在不需要完全重新同步的情况下分离和重新附加 ZFS 磁盘?

我有一个 ZFS 镜像池,总共有四个驱动器。其中两个驱动器旨在用于轮换异地备份。我的期望是,在初始重新同步之后,我可以detach和以后attach的磁盘只执行增量重新同步——但是在测试中,它似乎执行完全重新同步,无论附加的磁盘是否已经包含几乎所有池内容。

使用offline/online方法会给我带来仅更新磁盘而不是完全重建磁盘的理想结果吗?或者,要按预期完成这项工作,我是否需要做一些完全不同的事情——例如将每个备份磁盘用作 1 个磁盘池,并send在需要更新时为其添加最新快照?

backup zfs zpool

10
推荐指数
3
解决办法
2万
查看次数

ZFS 池慢速顺序读取

我有一个关于这个问题的相关问题,但它太复杂和太大了,所以我决定我应该把这个问题分成 NFS 和本地问题。我也试过在 zfs-discuss 邮件列表上询问这个问题,但没有取得多大成功。

在同一服务器上的 NFS/CIFS 目录之间复制缓慢

大纲:我的设置方式以及我的期望

  1. 我有一个带有 4 个磁盘的 ZFS 池。2TB RED 配置为 2 个条带化镜像 (RAID 10)。在 Linux 上,zfsonlinux。没有缓存或日志设备。
  2. 数据跨镜像平衡(对 ZFS 很重要)
  3. 每个磁盘可以以 147MB/秒的速度并行读取(原始 w/dd),总吞吐量为 588MB/秒。
  4. 根据类似 4TB RED 磁盘的基准测试,我预计每个磁盘的顺序数据写入速度约为 115MB/秒、读取速度为 138MB/秒和重写速度为 50MB/秒。我希望读取或写入速度不低于 100MB/秒,因为现在任何磁盘都可以做到这一点。
  5. 我以为在负载读取或写入顺序数据时,我会在所有 4 个磁盘上看到 100% 的 IO 利用率。并且磁盘将在 100% 的利用率下输出超过 100MB/秒。
  6. 我认为池可以在单个磁盘上为我提供大约 2 倍的写入、2 倍的重写和 4 倍的读取性能——我错了吗?
  7. 我认为同一池上的 ext4 zvol 与 ZFS 的速度大致相同

我实际得到的

我发现池的读取性能没有我预期的那么高

几天前的bonnie++基准测试池

版本 1.97 ------顺序输出------ --顺序输入- --随机-
并发 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- …

linux raid performance zfs zpool

10
推荐指数
1
解决办法
9648
查看次数

ZFS vdevs 累积校验和错误,但单个磁盘不会

我正在运行 FreeNAS 9.3 的供应商特定衍生产品。

当我安装了一个新的 JBOD 机箱以将两个新的 vdev 添加到我的池中时,我的麻烦就开始了,而机箱的板子有问题。在此期间,我看到坏板上的驱动器出现 SAS 电源错误——我的新驱动器每分钟反复有效地打开和关闭。

我更换了主板,现在,从大多数角度来看,驱动器运行良好,但是当我查看zpool status. 我认为当我遇到 SAS 电源问题时,有一些糟糕的 CoW 写入。

带有 CPU、引导驱动器、RAM 等的第一个机箱通过 mini-SAS 连接到第一个扩展 JBOD 机箱,第二个 JBOD 扩展机箱通过第一个 JBOD 扩展机箱菊花链连接,也通过 mini-SAS。

  • [机箱1:启动盘,两个L2ARC SSD,RAIDZ3-0的11/11盘,RAIDZ3-1的1/11盘] -->mini-SAS to Chassis 2
  • [Chassis 2: 10/11 RAID Z3-1, 6/11 RAID Z3-2] -->mini-SAS to Chassis 3
  • 【机箱3:RAIDZ3-2的5/11盘,RAIDZ3-3的11/11盘】

校验和错误并不能完美地映射到任何一个控制器或机箱,但我的预感是,当我遇到这些电源问题时,无论写入到不同新磁盘的任何数据都在两个新 vdev 上写入错误。

我的 HBA 使用了良好的 LSI 固件——全部都在 20.00.04.00 或 20.00.08.00

我已经更换了迷你 SAS 电缆,并尝试使用不同的端口,但无济于事。

的输出zpool status显示在两个新 vdev 上累积的校验和错误,并且在经过清理、重新启动或 之后zpool clear,最终将zpool status这些 vdev 标记为已降级。奇怪的是,它还将 …

freebsd zfs freenas checksum zpool

8
推荐指数
1
解决办法
2173
查看次数

zpool 导入:数据损坏的卷故障,是否可以保存一些数据?

我使用的是 Freenas 8.2 并决定升级到 9.2。一切似乎都很顺利,将 zfs 升级到 28 并重新启动。在下次启动期间,它似乎需要很长时间,在某些时候我决定关闭机器。我想这就是导致问题的原因。

当我尝试导入时,我得到以下信息:

[root@freenas] ~# zpool import   
池:vol4disks8tb
     编号:12210439070254239230
  状态:故障
 状态:池上次被另一个系统访问。
 操作:由于设备或数据损坏,无法导入池。
        该池可能在另一个系统上处于活动状态,但可以使用
        '-f' 标志。
   见:http://illumos.org/msg/ZFS-8000-EY
 配置:

        vol4disks8tb FAULTED 损坏的数据
          raidz2-0 在线
            gptid/3d316d16-f53e-11e1-9da5-080027dfca8a 在线
            gptid/3df02143-f53e-11e1-9da5-080027dfca8a 在线
            gptid/3eb99e55-f53e-11e1-9da5-080027dfca8a 在线
            gptid/3f91c723-f53e-11e1-9da5-080027dfca8a 在线
[root@freenas] ~#

编辑:命令“zpool import -f”、“zpool import -f -F -n”和“zpool import -f -F”返回与上一个命令完全相同的输出。

编辑#2:返回命令“zpool import -f 12210439070254239230”

无法导入“vol4disks8tb”:I/O 错误
     销毁并重新创建池
     一个备份源。

到目前为止,我已经尝试了在这个答案中找到的建议以及在 freenas 的 web 界面中找到的“自动导入卷”,它在 /var/log/messages 中写入了这个错误:

7 月 8 日 14:46:06 freenas manage.py: [middleware.notifier:3291] 导入 vol4disks8tb [12210439070254239230] 失败:无法导入 'vol4disks8tb':I/O 错误 …

zfs freenas zpool

7
推荐指数
1
解决办法
1万
查看次数

恢复/导入具有重复池名称的 ZFS Linux 池

今天我做了一件非常愚蠢的事情,试图将第三个镜像添加到名为 的现有 Linux zpool 中backup。可以说我犯了几个错误,因为除了每隔几年交换一次磁盘之外,我并没有对 ZFS 进行太多管理。在尝试纠正它们时,我误读了重新创建池的在线建议,并创建了一个新的池backup,从而破坏了现有池。(是的,我-f在它抱怨后使用了该选项。是的,我是个白痴。现在我知道再也不会这样做了。让我们继续吧。)

根据我在网上阅读的内容,我backup“创建”的原始池可能无法恢复。这没什么问题,因为它的命名是backup有原因的——它主要存放我 15 年前的备份。但是,有一些东西最好能恢复(一些非必要的数据我暂时移到那里),还有一些与备份设置有关的东西需要我几天的时间才能重新设置驻留在该卷上。(现在我知道在其他地方备份这些东西,所以这将是一次学习经历。)

但我有我的备份的备份 - 今天我正在更换第三个镜像,以替换几个月前在另一次系统升级(以及操作系统升级)期间删除的驱动器。该驱动器实际上并没有出现故障,但它很旧并且已经开始积累一些坏扇区,所以我想我最好把它拿出来,而不是等待它损坏或其他什么。

不管怎样,我仍然有那个旧驱动器,所以我想我可以将其放回我的系统并从那里恢复池数据。我只会丢失过去几个月的备份数据。现在,我从未正式导出该驱动器或其他任何东西上的池。我已经升级了操作系统,所以我没想到它会自动检测到该驱动器。(我不知道它是否插入同一个 SATA 端口,因为我移动了一些驱动器。)

但该zpool import命令似乎没有自动找到任何内容。使用一些选项,zpool import可以看到(现已被破坏的)backup池的第二个版本,但这只是我在其他两个驱动器上意外创建的空池。

关于如何尝试读取第三个磁盘上的数据有什么建议吗?据我所知,在几个月前我把它从箱子里拿出来之前,它是 ZFS 池的一个功能完美且最新的镜像。尤其:

  1. 事实上,有一个被破坏的池backup可能会干扰检测并尝试恢复/导入这个旧池的能力吗?有办法解决这个问题吗?
  2. 我的服务器上仍然安装有旧操作系统,我相信该操作系统在我使用旧磁盘时正在运行。我尝试启动它只是为了看看它是否可以检测到 ZFS 池,但它没有。(同样,驱动器可能没有插入到同一个位置。)但是是否有任何 ZFS 日志文件或我可以提取的其他内容可能包含旧池的元数据或 ID 号或我可以提取的内容?是否可以强制 ZFS 导入该驱动器上完整的镜像?
  3. 我只是假设前两个磁盘上的池已通过create -f命令销毁。但如果有人知道我如何能够直接在那里恢复第一个池,那显然会很棒。
  4. ZFS 无法将旧的第三个镜像检测为 ZFS 池磁盘还有其他原因吗?如果是的话,还有其他建议吗?我可以尝试其他恢复工具吗?

感谢您的任何帮助或建议。

zdb -l /dev/sdb1编辑:这是(这是第三个驱动器)的输出

------------------------------------
LABEL 0
------------------------------------
    version: 5000
    name: 'backup'
    state: 0
    txg: 0
    pool_guid: 3936176493905234028
    errata: 0
    hostid: …
Run Code Online (Sandbox Code Playgroud)

zfs data-recovery zpool zfsonlinux

7
推荐指数
0
解决办法
1326
查看次数

FreeNAS:重命名 zpool

现在我们的服务器已经设置好了,我想重命名我们的 zpools。

我在某处读到这样做的方法是以新名称导出和重新导入。但是我所有的挂载点和共享会保持不变吗?还是我必须重新设置这些?

zfs freenas zpool

6
推荐指数
1
解决办法
4663
查看次数

zpool 驱动器死机时发送电子邮件?

前几天我无法访问我的媒体驱动器。通过 SSH 连接到我的媒体服务器以查看发生了什么。ZFS 池甚至没有安装。当我再次运行它时,我发现它已降级,并且其中一个硬盘驱动器无法使用。

现在已经修复了,但如果这种情况再次发生,我希望尽早收到警告。当硬盘脱机/降级/不可用时,我可以让它向我发送电子邮件吗?

目前在 Ubuntu 16.04.2 上运行 ZFS 0.6.5.6。

zfs zpool

6
推荐指数
1
解决办法
2283
查看次数

标签 统计

zfs ×10

zpool ×10

freenas ×6

freebsd ×3

backup ×1

checksum ×1

data-recovery ×1

linux ×1

performance ×1

raid ×1

raidz ×1

zfsonlinux ×1