ZFS:处理大量数据。并发 RW 操作和故障转移

Har*_*rry 3 failover replication load-balancing zfsonlinux cloud-scale

我有一个 ZFS/Linux 实例,其文件可以增长到 ZFS 支持的疯狂大小。

大量并发用户需要通过公共互联网读取/写入该文件。如何在具有相同文件系统数据和元数据的 ZFS/Linux 实例池中平衡如此庞大的文件访问负载?

另外,虽然 ZFS 可以从轻微的位腐烂中自我修复,但在出现总体硬件故障时如何实现故障转移到 ZFS/Linux 实例的复制集?

似乎没有人谈论 ZFS 上下文中的副本、故障转移和负载平衡。或者也许,我在互联网上搜索的时间还不够长。

Ale*_*exD 6

ZFS 和 BTRFS 都不是为了在实例之间实时复制。您需要查看分布式文件系统的特定类别。维基百科页面“分布式文件系统比较”给出了一个很好的起始列表。