如何镜像具有数百万个硬链接的文件系统?

Tho*_*ger 11 linux performance rsync hardlink

目前我们有一个大问题:我们需要为我们的一位客户镜像文件系统。这通常不是问题,但这里是:

在这个文件系统上,有一个文件夹有数百万个硬链接(是的!数百万个!)。rsync需要超过 4 天才能构建文件列表。

我们使用以下rsync选项:

rsync -Havz --progress serverA:/data/cms /data/
Run Code Online (Sandbox Code Playgroud)

有谁知道如何加速这个 rsync 或使用替代方法?我们无法使用,dd因为目标磁盘比源磁盘小。

更新: 由于原始文件系统是ext3我们将尝试dumprestore. 我会让你保持最新状态

Tho*_*ger 3

我们现在已经使用了 ext* dump。效果很好,恢复端甚至不必是 ext*。

我们通过卸载设备并使用dump vf - /dev/vg0/opt | gzip -c > /mnt/backup/ext3dump.gz.

在这里,您可以看到最后几行的大小、时间、速度和最后一个索引节点号:

DUMP: dumping regular inode 47169535
DUMP: dumping regular inode 47169536
DUMP: Volume 1 completed at: Wed Jun 29 05:42:57 2011
DUMP: Volume 1 54393520 blocks (53118.67MB)
DUMP: Volume 1 took 4:16:43
DUMP: Volume 1 transfer rate: 3531 kB/s
DUMP: 54393520 blocks (53118.67MB)
DUMP: finished in 15403 seconds, throughput 3531 kBytes/sec
DUMP: Date of this level  dump: Wed Jun 29 01:24:29 2011
DUMP: Date this dump completed:  Wed Jun 29 05:42:57 2011
DUMP: Average transfer rate: 3531 kB/s
DUMP: DUMP IS DONE
Run Code Online (Sandbox Code Playgroud)