Sve*_*nnD 29 performance zfs storage write
我们将有一台机器在工作,在最佳性能下,每小时应该能够推送50(“写磁头”)x 75GB的数据。这是约 1100MB/s 写入速度的峰值性能。为了从机器上得到它,它需要两条 10GBi 线。我的问题是什么样的服务器+技术可以处理/存储这样的数据流?
目前对于数据存储,我们使用 ZFS,尽管写入速度从来都不是问题。(我们甚至还没有接近这些速度)ZFS(Linux 上的 zfs)会是一个选择吗?我们还需要存储大量数据,“IT 指南”建议总共存储 50-75 TB 之间的数据。因此,除非我们想提供我们的第一个孩子,否则它可能不能全部是 SSD。
基于优秀回复的一些补充:
sho*_*hok 23
对于如此极端的写入速度,我建议不要使用 ZFS、BTRFS 或任何 CoW 文件系统。我会使用 XFS,它在大型/流传输上非常有效。
有很多缺失的信息(你打算如何访问这些数据?读取速度重要吗?你打算写大块吗?等等)给你具体的建议,但一些一般性的建议是:
eww*_*ite 18
绝对......如果架构正确,Linux 上的 ZFS 是可能的。ZFS设计不好的情况有很多,但是做得好,可以满足你的要求。
所以主要的决定因素将是你如何连接到这个数据存储系统。是NFS吗?CIFS?客户端如何连接到存储?还是在存储系统上进行处理等?
填写更多详细信息,我们可以看看是否可以提供帮助。
例如,如果这是 NFS 并具有同步挂载,那么绝对可以在 Linux 上扩展 ZFS 以满足写入性能需求并仍然保持长期存储容量需求。数据是否可压缩?每个客户端是如何连接的?千兆以太网?
编辑:
好吧,我咬一口:
这是一个大约17,000 美元至 23,000 美元的规格,适合 2U 机架空间。
HP ProLiant DL380 Gen9 2U Rackmount
2 x Intel E5-2620v3 or v4 CPUs (or better)
128GB RAM
2 x 900GB Enterprise SAS OS drives
12 x 8TB Nearline SAS drives
1 or 2 x Intel P3608 1.6TB NVMe drives
Run Code Online (Sandbox Code Playgroud)
此设置将使用硬件 RAID6 或 ZFS RAIDZ2 为您提供 80TB 的可用空间。
由于重点是基于 NFS 的性能(假设同步写入),我们可以使用 P3608 NVMe 驱动器(条带化 SLOG)轻松吸收所有这些。它们可以在顺序写入中容纳 3GB/s,并且具有足够高的耐用性等级来持续处理您所描述的工作负载。可以轻松地过度配置驱动器以在 SLOG 用例下添加一些保护。
对于 NFS 工作负载,写入将合并并刷新到旋转磁盘。在 Linux 下,我们会调整它以每 15-30 秒刷新一次。旋转磁盘可以处理这个问题,如果这些数据是可压缩的,可能会受益更多。
该服务器可以通过另外 4 个开放式 PCIe 插槽和一个用于双端口 10GbE FLR 适配器的额外端口进行扩展。因此,您具有网络灵活性。
归档时间: |
|
查看次数: |
8838 次 |
最近记录: |