Windows DFS 限制

Phi*_*hil 7 windows-server-2008 dfs limitations

到目前为止,我看到了一篇关于性能和可扩展性的文章,主要关注添加新链接需要多长时间。但是是否有关于文件数量、文件夹数量、总大小等限制的信息?

现在我有一个文件服务器,其中包含数百万个 JPG(价值约 45 TB),这些文件通过几个标准文件共享在网络上共享。我计划创建一个 DFS 命名空间并将所有这些映像复制到另一台服务器以实现高可用性目的。我是否会遇到 DFS 的额外问题,而我在使用普通文件共享时不会遇到这些问题?是否有更推荐的方法来复制这数百万个文件并使它们在网络上可用?

编辑2:

所有文件通常都会写入磁盘一次,之后再也不会修改。它们被修改的唯一时间是它们最终被删除时,可能是几年后。所以一切都是静态的。

编辑:

我会自己试验并写一篇关于它的博客文章,但我还没有第二台服务器的硬件。我想在购买 45 TB 硬盘空间之前收集信息...

Hos*_*its 9

有了 45TB 的数据,您就超出了 Server 2008 上 DFS-R 的测试限制,如下所示:

DFS-R:常见问题

服务器上所有复制文件的大小:10 TB。

卷上复制的文件数:800 万。

最大文件大小:64 GB。

编辑:

如果您的文件可能永远不会更改,您可以利用 DFS 的命名空间部分为您的共享创建一个虚拟化路径。然后,您可以在计划任务中运行 robocopy 以同步您的服务器。即使您打算使用 DFS-R,您也需要使用 robocopy 之类的东西进行初始同步。


小智 5

我们目前使用 2008 R2 DFSR 和 57 TB 的复制文件(160 万),并且总卷大小超过 90 TB,没有任何问题。
因此,MS 测试的限制在这方面有点幼稚,恕我直言,他们应该购买更多磁盘空间并进行更多测试。如果您对初始同步的时间要求不高,DFSR 也可以做到这一点。它特别不喜欢在多个主机上修改同一个文件,因为它必须进行仲裁以保留。

  • 45 TB 是 Microsoft 在上次更新时测试的容量。这个限制有点保守,随着时间的推移逐渐增加。在 2010 年,它是 10 TB。此限制主要是为了防止人们将所有数据放在 DFS-R 篮子中,直到形成一个巨大的陨石坑,从而防止人们用脚射击自己。 (2认同)