小编jef*_*aid的帖子

如何在两台服务器之间复制大量(> 100 万)个小文件

我需要将大约 1TB 的由较小文件(大部分小于 100KB)组成的数据迁移到另一台服务器。我什至没有完全列举这些文件,但估计在 1-2 百万之间。

使用 SCP 的初始副本花费了一个多星期。现在我们必须同步更改。每天都会添加数百到数千个文件。

我已经尝试使用 rsync (v3) 但它花费了太长时间。到它完成时,我们将再次恢复数据不同步。

我在这里看到过类似的问题,但它们有点旧,想知道是否有任何新工具可以帮助完成此过程。

由于源数据位于读取性能较差的共享 iSCSI 系统上,问题变得更加复杂。

最新的策略可能是重做数据迁移,并让开发人员编写一个工具来记录迁移过程中添加的所有新文件。唯一标识符的目录结构键非常广泛和深入,因此新文件分散在此结构中,重写应用程序以将新文件放入特定目录是行不通的。

任何策略表示赞赏。

操作系统是 RHEL 5 到 RHEL 6。

linux rsync migration scp

5
推荐指数
2
解决办法
3100
查看次数

标签 统计

linux ×1

migration ×1

rsync ×1

scp ×1