Mic*_*rdt 5 hard-link cp file-copy
所以在这个关于 GNU coreutils ML 的故事中,有人使用 cp 复制了 4.3 亿个文件并且需要保留硬链接,并且在 10 天后才勉强完成。
最大的问题是,为了保留硬链接,cp 必须保留一个已复制文件的哈希表,这在最后占用了 17GB 的内存,并使系统在交换时抖动。
是否有一些实用程序可以更好地处理任务?
Tho*_*erk 0
我记得 rsync 给我带来了一些问题;我不确定这些是硬链接还是设备文件还是其他什么。从那时起我就用
tar -cv $(ls) | ( cd /mnt; tar xv )
这将从 复制所有文件。到/mnt。我的整个故事可以在这里找到:http://www.linuxintro.org/wiki/Cloning#file-by-file_copy_2
归档时间:
11 年 前
查看次数:
1444 次
最近记录: