好的,不是那么大,但我需要使用一些东西,其中大约 60,000 个平均大小为 30kb 的文件存储在单个目录中(这是一个要求,因此不能简单地分成具有较少文件数量的子目录)。
这些文件将被随机访问,但一旦创建,将不会写入同一文件系统。我目前正在使用 Ext3,但发现它很慢。有什么建议?
Kam*_*iel 14
您应该考虑 XFS。它在文件系统和目录级别都支持非常大量的文件,并且由于 B+ 树数据结构,即使在大量条目的情况下,性能也保持相对一致。
在他们的 wiki 上有一个页面,里面有大量详细介绍设计的论文和出版物。我建议您尝试一下,并根据您当前的解决方案对其进行基准测试。
nel*_*aro 14
本文的作者深入研究了具有大文件数量的文件系统的一些性能问题,并对各种文件系统 ext3、ext4 和 XFS 的性能进行了一些很好的比较。这是以幻灯片形式提供的。https://events.static.linuxfound.org/slides/2010/linuxcon2010_wheeler.pdf

好的。我使用 ReiserFS、XFS、JFS、Ext3(启用 dir_hash)和 Ext4dev(2.6.26 内核)做了一些初步测试。我的第一印象是一切都足够快(在我强大的工作站上)——事实证明,远程生产机器的处理器相当慢。
即使在最初的测试中,我也遇到了 ReiserFS 的一些奇怪之处,因此排除了这种情况。看起来 JFS 的 CPU 需求比其他所有产品少 33%,因此将在远程服务器上进行测试。如果它表现得足够好,我会使用它。
| 归档时间: |
|
| 查看次数: |
48704 次 |
| 最近记录: |