中型共享存储的最佳实践

uml*_*ute 4 storage debian storage-area-network best-practices

我们旧的 32TB RAID6(净容量:26TB)系统已经老化,需要升级,所以我们目前正在考虑建立一个新的 100TB 系统。

存储主要用于我们用户的主目录,用于共享项目数据(使用媒体,因此项目可以达到 1TB)和

旧存储通过 iSCSI 连接到 Debian 主机;文件服务器通过NFS(对于 un*x 主机)和SMB(对于 W32)导出数据。出于实际原因,我们希望保留这一点。

过去我们发现项目数据在意外结束时增长,因此我们使用扁平存储池,其中所有项目(和主目录)都位于同一个文件系统中(而不是预先分配一定数量的存储容量给给定的项目,然后在达到限制时必须重新分配)。虽然这是一个简单而灵活的解决方案,但我记得即使使用旧设置也会遇到一些限制。旧 RAID 系统上最大的分区是 20TB,因为xfs它不允许我创建更大的文件系统(当时;不要谈论ext4;我并没有真正考虑zfsbtrfs- 仍然没有考虑)。

由于我没有特别关注存储方面的最新进展,因此我有点不了解当前创建此类中型存储的最佳实践是什么:JBOD、LVM、RAID、分布式文件系统;堆叠哪个?一些博客表明RAID6 无论如何已经过时了,但是有什么替代方案呢?

我的要求是:

  • ~100TB 净容量
  • “平面”文件系统视图
  • 冗余(在多个并发磁盘故障中幸存下来)
  • 白盒系统
  • 在 Debian (Debian/stretch) 上运行
  • iSCSI

  • 可扩展:理想情况下,这样的系统将允许增长(例如,我从 70TB 开始,然后在旅途中购买磁盘,直到我达到满容量,并且堆栈不断扩展:文件系统增长并且数据仍然冗余存储,希望没有少数独立的 RAID6 系统)。

Bar*_*958 5

去 ZFS。如果你想要 Debian ZoL 是你最好的朋友。

https://github.com/zfsonlinux/zfs/wiki/Debian