我正在通过我的千兆 LAN 传输大约 9TB。为了尽快(我希望)这样做,我通过 NFS 在源上安装了目标,并在其上运行 rsync。
这是我的安装选项:
x.x.x.x:/mnt on /mnt type nfs (rw,noatime,nodiratime,vers=3,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=x.x.x.x,mountvers=3,mountport=56548,mountproto=udp,local_lock=none,addr=x.x.x.x)
这是我的 rsync 命令: rsync -avWH --progress ./ /mnt/
看看 nload,我所看到的,对于单个文件,速度会飙升至 900MBps,然后下降到 KBps 范围内的数字,然后再备份。这是来自 nload 的图形,您可以在其中看到传输似乎停止了,midfile。这些文件的大小通常为 5-6GB。MTU为9000;交换机是具有足够背板速度的 cisco 3750x。这些是的ESXi 6.7客人在2台不同的主机上。没有其他来宾争用网络资源。
此图像是正在发送的一个文件
基本上,我希望有一个我有错误的设置,或者我可以改变一些东西以保持传输速度有些一致。
源上的 CPU 利用率约为 10%,目标上的 CPU 利用率约为 10%。奇怪的是,在目的地,iotop 显示来自 nfsd 的 99% i/o(有时),源显示来自 rsync 的 60-80% IO。这些是 7200RPM WD 红色驱动器。瓦