有没有比 cp 更好的方法来复制数百万个文件同时保留硬链接?

Mic*_*rdt 5 hard-link cp file-copy

所以在这个关于 GNU coreutils ML 的故事中,有人使用 cp 复制了 4.3 亿个文件并且需要保留硬链接,并且在 10 天后才勉强完成。

最大的问题是,为了保留硬链接,cp 必须保留一个已复制文件的哈希表,这在最后占用了 17GB 的内存,并使系统在交换时抖动。

是否有一些实用程序可以更好地处理任务?

Tho*_*erk 0

我记得 rsync 给我带来了一些问题;我不确定这些是硬链接还是设备文件还是其他什么。从那时起我就用

tar -cv $(ls) | ( cd /mnt; tar xv )
Run Code Online (Sandbox Code Playgroud)

这将从 复制所有文件。到/mnt。我的整个故事可以在这里找到:http://www.linuxintro.org/wiki/Cloning#file-by-file_copy_2