小编jim*_*x52的帖子

如何使来自远程服务器的 ~2M 文件的 rsync 具有高性能以进行定期备份

我们在远程服务器上有大量文件,我想定期备份到本地系统以获得额外的冗余。一些细节:

  • 远程系统不在我的控制之下。我只有 SSH/rsync 或 FTP 访问权限
  • 远程系统运行 rsync 2.6.6 且无法升级
  • 远程系统最多允许 25 个并发连接,5 个保留用于生产需求(因此,20 个可用)
  • 远程系统包含 2M 文件 - 其中大部分是 100-200K 大小
  • 文件存储在层次结构中

相似:

0123456789/
        0123456
            abc/
                1.fff
                2.fff
                3.fff
            xyz/
                9.fff
                8.fff
                7.fff
9877656578/
        5674563
            abc/
                1.fff
                2.fff
                3.fff
            xyz/
                9.fff
                8.fff
                7.fff
Run Code Online (Sandbox Code Playgroud)

成千上万的根文件夹仅包含一些内部文件夹/文件结构 - 但所有根文件夹都是数字(0-9)。

rsync -aP第一次用直线跑了,结果花了3196m20.040s. 部分原因是因为远程服务器在rsync2.6.6 上,我无法使用 3.xx 中的增量文件功能。编译文件列表需要将近 12 个小时 - 每 10 秒运行大约 500 个文件。我不认为后续运行会花费这么长时间,因为初始运行必须重新下载所有内容 - 然而,即使 12 小时仅用于文件列表也太长了。

文件夹命名分解如下:

$ ls | grep "^[^67]" | wc -l …
Run Code Online (Sandbox Code Playgroud)

backup performance rsync

7
推荐指数
1
解决办法
893
查看次数

标签 统计

backup ×1

performance ×1

rsync ×1