有没有人有从 .tar.gz 中提取 1 个文件的命令语法,它还允许我将提取的文件放在某个目录中?我在谷歌上搜索了这个,得到了太多的变化,很多论坛帖子都说语法不起作用。在我冒险之前,我更愿意知道该命令会起作用,因为我不想冒险覆盖我服务器上已经存在的文件和目录。
我想备份我的服务器,但不想打扰图像/视频等。
我如何 tar.gz 所有我想要的文件类型(基本上是文本文件)?
你如何备份你的网站?当您拥有一个包含数千个文件的大型站点 (20GB+) 时,我特别感兴趣?
有什么比平常更聪明的吗 tar -zcvf backup2010.tar.gz ./public_html/
回答完以上问题后,如何维护一致的备份程序?
感谢大家的帮助
我在文本文件中有一个巨大的文件列表。这个列表被传递给 tar,像这样:
猫列表.txt | xargs tar rvf archive.tar --ignore-failed-read
问题是列表中的某些文件不再存在。所以 tar 一直说“无法统计:没有这样的文件或目录......”。我对此没有任何问题,但是当出现其中一些消息时,tar 挂起,并等待几分钟恢复操作,使备份非常缓慢。关于如何仅将现有文件过滤为 tar 的任何想法?
问候
我想下载一个大文件是.tar.gz和(> 2GB)的大小。bash 脚本还做了很多其他的事情,所以我想开始下载,然后继续处理 bash 脚本中的其他命令。我正在使用wget并通过管道tar在后台运行它&。
wget -q "https://download-of-large-file-here.tar.gz" | tar xz &
# other commands here
Run Code Online (Sandbox Code Playgroud)
然而,这打破了:
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now
Run Code Online (Sandbox Code Playgroud)
知道如何进行这项工作吗?
可能的重复:
将 55GB 的图像传输到新服务器的最快方法
我正在从一台服务器迁移到另一台服务器。我想将数千个文件从一台服务器传输到另一台服务器。
这里最好的方法是什么?
两个系统都运行 CentOs。我正在迁移的一个使用 DirectAdmin,另一个 cPanel。我对两者都有 SSH 访问权限。
我目前正在对不同的文件夹进行皮重处理,但是当文件很大且文件量很大时,需要的时间太长)
我正在尝试 tar 一个巨大的目录(大约 600GB),有时我的 SSH 连接会下降,我需要再次执行 tar 代码,我的 linux 覆盖了以前的文件,再次开始所有的 tar。
是否有一些参数允许我的 tar 文件在出现问题后恢复?
问题主要是出于好奇…… - 考虑到 tar 无法在不阅读整个(有时是巨大的)文件的情况下列出内容,这有点奇怪和尴尬的限制。