标签: tar

在压缩包含小文件的大目录时加速 tar 的技巧?

我正在尝试压缩一个包含大约 3M 个小文件的目录。Tar 正在缓慢地前进,但我认为它需要的时间比我等待的还要长。

我想知道告诉 tar 不存储元数据(所有者、组、权限)是否会减少读取和重新读取这个巨大目录的麻烦,并可能加快速度,以及是否有一个 tar 开关可以做到这一点。

我最初仔细阅读手册页只得到类似 --no-xattrs 的内容,这看起来像是一个开始,但我希望有人有一些特定的知识。

tar

5
推荐指数
1
解决办法
6209
查看次数

提取前从 tgz 获取提取大小

是否有可能获得提取后 tgz 将占用的大小,但不提取它?我基本上想要

tar tzf 文件.tgz
旁边有尺寸。我真的在寻找总数,因此提供总大小但不提供特定文件大小的解决方案将起作用。

bash tar

4
推荐指数
1
解决办法
4797
查看次数

“tar”可以增量备份吗?

我有几 GB 的主文件夹。

是否可以在其上运行 tar,创建一个 home.tar.gz,然后对于更改的文件,它仅使用来自先前 tar 的修改文件(因此是增量备份)创建 home1.tar.gz?

我想检查生成的校验和文件并将它们导出为 home.md5、home1.md5 等(我知道这可能是另一个过程,但也很有趣)。

incremental-backup tar hash md5

4
推荐指数
1
解决办法
3464
查看次数

tar 和 ssh 大文件

我已经运行以下命令 5 个小时,但仍在运行。mysql 有千兆字节的数据,但我如何确保以下命令实际上正在传输数据。有人可以检查正确性吗?

tar -czpf - ./ --exclude mysql mysql-bin* mysql.sock | ssh -lroot xxx.xx.xxx.xx tar -xzpf - -C /var/lib/mysql 

linux ssh tar

4
推荐指数
1
解决办法
621
查看次数

有没有一种快速的方法来获取大 TAR 中的最后一个文件?

假设我有一个数 GB 的 tar 文件,但我也碰巧知道写入存档的最后一个文件是我需要的重要文件。由于 tar 文件是按顺序附加的,有没有一种方法可以让 tar 从最后读入存档以找到这个文件,而不是从头开始读取数千兆字节的不相关数据?

linux tar

4
推荐指数
1
解决办法
816
查看次数

Ultrium 3 磁带驱动器闪亮,3Mb/s:它不是电缆

我有一个 HP 960 Ultrium 3 磁带机。自从我得到它(二手,90 英镑)以来,我一直在擦鞋。在 Linux 中使用 tar 写入,我的平均写入速度约为 3Mb/s。我现在已经尝试更换 SCSI 卡和电缆,两者都没有任何区别。我所做的一个奇怪的观察是写入速率不一致。有时它会在不擦鞋的情况下写超过一分钟,但更多时候,只需几秒钟。我还尝试了几种磁带、不同的源驱动器,甚至从 Windows 备份中写入,但都无济于事。

backup tape tar scsi lto-3

4
推荐指数
1
解决办法
1056
查看次数

合并两个或多个压缩文件

我有 2 个需要合并为一个的 gz 文件——也就是说,我想将两个 .gz 文件合并为一个,这样当我提取合并的文件时,我会得到一个包含原始输入文件串联的文件。

time join <(zcat r_TR2_2012-05-28-08-10-00.gz) <(zcat r_TR1_2012-05-28-08-10-00.gz)
Run Code Online (Sandbox Code Playgroud)

上面的语句没有按预期工作。我正在使用 3 个命令来完成所需的工作。

gunzip r_TR2_2012-05-28-08-10-00.gz 
gunzip r_TR1_2012-05-28-08-10-00.gz 
tar -zcvf combined.tar.gz r_TR1_2012-05-28-08-10-00 r_TR2_2012-05-28-08-10-00 
Run Code Online (Sandbox Code Playgroud)

然后在提取文件时将文件连接在一起以生成我想要的输出。

有没有办法在 1 条语句中做到这一点?

tar gzip

4
推荐指数
2
解决办法
2万
查看次数

tar gzip 减慢服务器速度

我有一个备份脚本:

  1. 压缩一些文件
  2. 生成 md5
  3. 将压缩文件复制到另一台服务器。
  4. 另一台服务器完成比较 MD5(以查找复制错误)。

这是核心脚本:

nice -n 15 tar -czvf $BKP $PATH_BKP/*.* \
| xargs -I '{}' sh -c "test -f '{}' && md5sum '{}'" \
| tee $MD5
scp -l 80000 $BKP $SCP_BKP
scp $MD5 $SCP_BKP
Run Code Online (Sandbox Code Playgroud)

该例程在 gzip 例程中获得了 90% 的 CPU,从而降低了生产服务器的速度。我试图添加一个nice -n 15但服务器仍然挂起。

我已经阅读了1,但谈话对我没有帮助。

解决此问题的最佳方法是什么?我对新的架构/解决方案持开放态度:)

backup tar gzip

4
推荐指数
1
解决办法
4196
查看次数

磁盘空间不足,如何在不创建副本的情况下进行 tar

我有 98% 的 8GB SSD,我有一个 3 GB 的 mysql 数据,我需要 gzip 和/或 tar 然后下载它,这样我就可以删除它了。

我如何对 sql(或 mysql 表)进行 tar 或 gzip,以便我不必复制 3GB 文件并出现磁盘已满错误。

运行 Debian 6。

mysql debian sql disk-space-utilization tar

4
推荐指数
1
解决办法
1106
查看次数

在完整的服务器 tar 备份期间,我应该排除所有“dev/”还是只排除“dev/pts/”?

我很好奇为什么在所有备份教程中我发现 tar 命令排除了其他/dev/pts 而不是全部/dev/ 为什么我要在 dev 下备份任何内容?

backup filesystems tar

4
推荐指数
1
解决办法
365
查看次数