zfs 池如何在异地连续/增量备份?
我认识到send/receive通过 ssh 是一种方法,但是它涉及必须手动管理快照。
我发现了一些工具,但大多数不再受支持。
一个看起来很有希望的工具是https://github.com/jimsalterjrs/sanoid但是我担心非广为人知的工具可能弊大于利,因为它可能会损坏/删除数据。
如何执行连续/增量 zfs 备份?
我有一个由 systemd 作为服务运行的关键应用程序。
它设置为一旦出现故障就重新启动。
如果应用程序重新启动,如何发送电子邮件?
以条带镜像(Raid 10)为例,如果将两个磁盘扩展为四个,那么如何在两个镜像之间“重新平衡”(扩展)来自两个磁盘的数据?
也就是说,如何将写入一个镜像的文件写入两个镜像以利用条带磁盘?
鉴于 RAID1 写入数据的两个副本,我的理解是读取应该接近单个磁盘的两倍。
我测试了不同技术(mdadm、zfs、btrfs)的读取性能,但收效甚微。
根据我的经验:
我已经使用 dd、iotop 和 iostat 验证了结果。
如何同时读取两个磁盘上的数据才能达到单个磁盘两倍的读取性能?
在下面的示例中,如何更改第二个镜像中的设备,以便它们引用而/dev/disk/by-id不是/dev/sdX?
user@pc:~$ sudo zpool status
pool: storage
state: ONLINE
scan: scrub repaired 0 in 8h30m with 0 errors on Sun May 28 08:54:48 2017
config:
NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-ST2000AS0002-1NA12Z_Z840MHWP ONLINE 0 0 0
ata-ST2000AS0002-1NA12Z_Z840MHTQ ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdd ONLINE 0 0 0
sde ONLINE 0 0 0
Run Code Online (Sandbox Code Playgroud) 我购买了两个 Dell MD1000 存储阵列和一个 Dell Poweredge 1950 服务器,需要帮助设置它们(我是 SAN/iSCSI 的完全新手)。
Poweredge 服务器有两个 SAS SFF-8470 连接器。两个存储阵列(每个阵列有一个 *EMM)应该通过菊花链连接还是直接连接到 Poweredge 服务器?
此外,如何访问 Dell OpenManage 软件?它是一个webgui,可以远程访问还是需要从服务器本身访问?我还没有打开它们,因为我还在等待交货。
*EMM:机柜管理模块
使用以下zfs-auto-snapshot命令,如何指定保留 52 个每周快照和无限数量的每月快照?
sudo zfs set com.sun:auto-snapshot=true storage
sudo zfs set com.sun:auto-snapshot:weekly=true storage
sudo zfs set com.sun:auto-snapshot:monthly=true storage
Run Code Online (Sandbox Code Playgroud)
当我将它指定为关键字或参数时,它两次都失败了:
sudo zfs set com.sun:auto-snapshot:weekly=true storage keep=52
cannot open 'keep=52': invalid dataset name
sudo zfs set com.sun:auto-snapshot:weekly=true storage --keep=52
cannot open '--keep=52': invalid dataset name
Run Code Online (Sandbox Code Playgroud) 我注意到默认情况下,以下行包含在/etc/network/interfaces:
source /etc/network/interfaces.d/*
Run Code Online (Sandbox Code Playgroud)
这条线的目的是什么,它实际上做了什么?
创建 zpool 后,是否可以将更多物理驱动器添加到镜像 vdev?
例如,如果使用以下命令创建 zpool:
zpool create test_pool mirror /dev/sd0 /dev/sd1 mirror /dev/sd2 /dev/sd3
Run Code Online (Sandbox Code Playgroud)
是否可以向 vdev 添加更多驱动器以增加其冗余?即镜像驱动器的数量可以从1增加到2吗?
我有 2 个 4TB 磁盘和 3 个 6TB 磁盘,我想将它们与 ZFS 一起使用。我的目标是最大化可用存储空间,同时允许单个磁盘发生故障。
理想情况下,将使用 raidz 设置,但根据我的研究,不同大小的驱动器会导致较大的驱动器利用率不足。也就是说,6TB 中仅 4TB 用于较大的驱动器。
是否可以对以下内容进行条带化(raid 0):
或者,是否可以对两个 4TB 进行条带化,然后将条带用于带有 6TB 驱动器的 raidz 配置中?那是:
zfs ×7
linux ×6
zfsonlinux ×6
mirror ×2
backup ×1
btrfs ×1
dell ×1
hard-drive ×1
iscsi ×1
mdadm ×1
networking ×1
performance ×1
raid1 ×1
raidz ×1
sas ×1
snapshot ×1
systemd ×1
ubuntu ×1
ubuntu-16.04 ×1
zpool ×1