我的一个客户正计划建立一个新的文档存储,它可能会以每年 1-2TB 的速度增长。我的一位同事说,如果 Windows 的单个 NTFS 卷大于 5 或 6 TB,则它的性能非常差。他认为我们需要将他们的系统设置为具有多个卷,以便单个卷不会超过该限制。
这是一个真正的问题吗?当卷大小达到几 TB 时,Windows 或 NTFS 是否会变慢?或者是否可以创建 10 TB 或更多 TB 的单个卷?
我以前制作过 30TB 的卷。他们持有大文件,因此极大地有助于避免性能下降。与较小的体积相比,没有问题。
哪里的问题可能会开始出现是如果大型文件系统建立了足够的文件和目录去的疯狂大范围。我说的是 2000 万个文件和目录或更多级别。在这一点上,MFT 可能非常分散,并且在RAM 受限的服务器上可能会开始引入一些目录显示性能问题。对文件的实际访问不应该受到影响,只是 fileOpen() 和目录扫描操作。
这是一个真正的可能性吗?是的,但出于同样的原因,该效果也适用于其他平台上类似的大型文件系统。此外,受性能下降影响最大的操作甚至可能不是您担心的操作。由于这听起来像是一个新设置,因此听起来您不会在只有 1GB RAM 的服务器上使用这 10TB,因此您不必担心。
对大小的担忧可能来自 WinNT 和 Win2K 时代,当时 MBR 限制使得创建大容量变得棘手。这需要一些诡计来解决所有这些问题,而在那个时代,诡计是有代价的。这放大了许多小文件的性能损失。GPT 没有这个问题。GPT 卷是 Windows 2003 中的第一个卷,但它们的新意意味着保守的系统管理员起初并没有经常使用它们。
有时,旧的态度很难改变。特别是如果有创伤加强它们。
归档时间: |
|
查看次数: |
3335 次 |
最近记录: |