我将如何通过非常不稳定的互联网连接复制文件?
有时,连接丢失,有时一台机器或另一台机器的 IP 被更改,有时两者都有,但动态 DNS 会捕获它。
您建议使用哪种工具或命令?
我听说rsync只复制差异非常好,但这意味着很多工作要么一次又一次地重新启动它,要么将它放入一段时间或 cronjob。
我希望有一些更简单和万无一失的东西。
它是关于不时地从一个站点复制几个目录,其中包含一些大于 5GB 的非常大的文件。复制后,两者都在本地移动到不同的位置。
我不能在网络级别上做任何事情,我不具备这样做的知识。
我宁愿不设置网络服务器来使用 wget。那是不安全的,似乎是一条迂回的路线。
我已经建立了 SSH 连接,现在可以 rsync,因为 rsync 已经安装在两台机器上(我将无法启动和运行 rsync 守护程序)。
关于如何通过 ssh进行智能 rsync以便在线路暂时切断时尝试继续的任何提示?但是当 ssh 连接中断时,rsync 不会成为问题。所以这样的事情(https://serverfault.com/questions/98745/)可能行不通:
while ! rsync -a .... ; do sleep 5 ; done
Run Code Online (Sandbox Code Playgroud)
有任何想法吗?
非常感谢!
加里
我想启动驻留在远程计算机上的 shell 脚本。当我使用
ssh user@example.com /path/to/script.sh
Run Code Online (Sandbox Code Playgroud)
它需要打开 ssh 连接,直到脚本终止。
但我需要脚本继续运行,即使在我关闭 ssh 连接之后,直到脚本自行完成。我只想开始一个过程,然后忘记它。
我怎样才能使用 ssh 来做到这一点?
多谢!
PS:这不是这个 stackechange 问题的重复。