所以在这个关于 GNU coreutils ML 的故事中,有人使用 cp 复制了 4.3 亿个文件并且需要保留硬链接,并且在 10 天后才勉强完成。
最大的问题是,为了保留硬链接,cp 必须保留一个已复制文件的哈希表,这在最后占用了 17GB 的内存,并使系统在交换时抖动。
是否有一些实用程序可以更好地处理任务?
hard-link cp file-copy
cp ×1
file-copy ×1
hard-link ×1