我想下载一个 ansible (10 GB) 的大文件。根据连接情况,这需要半小时,并且经常因 unarchive 或 get_url 而失败。
我怎样才能在出现错误和某种进展的情况下通过恢复来理想地实现这一目标?
我认为没有任何方法可以在 Ansible 的任务中取得进展。
您可以通过使用command模块以循环中curl的--range选项启动来手动下载多个块,这将是一种进度显示。
(您还可以使用模块 with获取文件大小以计算在循环中用于 curl 调用的范围)with_sequenceurimethod: HEAD
为了在出错时恢复,有do-until 循环语法。
| 归档时间: |
|
| 查看次数: |
2805 次 |
| 最近记录: |