我试图压缩文件夹(/var/www/
)来~/www_backups/$time.tar
这里$time
是当前日期。
这就是我所拥有的:
cd /var/www && sudo tar -czf ~/www_backups $time"
Run Code Online (Sandbox Code Playgroud)
我完全迷失了,我已经在这里呆了几个小时了。不确定是否-czf
正确。我只是想将所有内容复制/var/www
到一个$time.tar
文件中,并且我想维护所有文件的文件权限。谁能帮我吗?
我正在尝试创建一个目录,该目录将包含所有且仅我从 LaTeX 编译的 PDF。我喜欢将每个项目放在一个单独的文件夹中,所有项目都放在一个名为LaTeX
. 所以我尝试运行:
rsync -avn *.pdf ~/LaTeX/ ~/Output/
Run Code Online (Sandbox Code Playgroud)
它应该找到所有的pdf~/LaTeX/
并将它们传输到输出文件夹。这不起作用。它告诉我没有找到“ *.pdf
”的匹配项。如果我省略此过滤器,该命令将列出 LaTeX 下所有项目文件夹中的所有文件。所以这是 *.pdf 过滤器的问题。我尝试用~/
我的主目录的完整路径替换,但这没有效果。
我正在使用 zsh。我尝试在 bash 中做同样的事情,甚至使用列出每个子目录中每个文件的过滤器......这里发生了什么?
为什么 rsync 不能理解我的 pdf only 过滤器?
好的。所以更新:不,我正在尝试
rsync -avn --include="*/" --include="*.pdf" LaTeX/ Output/
Run Code Online (Sandbox Code Playgroud)
这给了我整个文件列表。我猜是因为一切都匹配第一个模式......
这是我经常遇到的情况:
我想将 320GB 的数据从源服务器传输到目标服务器(特别是来自 的数据/dev/sda
)。
我在网上搜索了这个问题,并测试了几个命令。出现频率最高的就是这个:
ssh user@192.168.1.100 'dd bs=16M if=/dev/sda | gzip' > backup_sda.gz
Run Code Online (Sandbox Code Playgroud)
这个命令被证明太慢了(它运行了一个小时,只得到了大约 80GB 的数据)。1GB 的测试数据包大约需要 1 分 22 秒,最终在未压缩时速度是原来的两倍。结果也可能因传输的文件小于源系统上的 RAM 量而产生偏差。
此外(这是在 1GB 测试片上测试的),如果我使用gzip
命令和dd
; 与直接通过管道传输相比,在目标上提取的结果文件具有不同的校验和。我仍在试图弄清楚为什么会发生这种情况。
我需要备份一个相当大的目录,但我受到单个文件大小的限制。我想基本上创建一个tar.(gz|bz2)
档案,该档案被分成 200MB 的最大档案。Clonezilla 通过拆分像这样命名的映像备份来做类似的事情:
sda1.backup.tar.gz.aa
sda1.backup.tar.gz.ab
sda1.backup.tar.gz.ac
Run Code Online (Sandbox Code Playgroud)
有没有办法在一个命令中做到这一点?我了解如何使用该split
命令,但我不想创建一个巨大的存档,然后将其拆分为较小的存档,因为这将使我最初创建存档所需的磁盘空间增加一倍。
如何用零清除未使用的空间?(ext3,ext4)
我正在寻找比它更聪明的东西
cat /dev/zero > /mnt/X/big_zero ; sync; rm /mnt/X/big_zero
Run Code Online (Sandbox Code Playgroud)
就像FSArchiver正在寻找“已用空间”并忽略未使用但相反的站点。
目的:我想压缩分区图像,因此强烈建议用零填充未使用的空间。
顺便提一句。对于 btrfs :用零清除未使用的空间 (btrfs)
我喜欢在第一次备份系统时创建映像备份。在第一次之后,我使用 rsync 进行增量备份。
我平时的镜像备份如下:
安装并清零空白空间:
dd if=/dev/zero of=temp.dd bs=1M
rm temp.dd
在压缩驱动器的同时卸载并添加驱动器
dd if=/dev/hda conv=sync,noerror bs=64K | gzip -c > /mnt/sda1/hda.ddimg.gz
为了让系统恢复正常,我通常会做一个
gunzip -c /mnt/sda1/hda.img.gz | dd of=/dev/hda conv=sync,noerror bs=64K
这真的很简单,允许我保存“整个驱动器”,但实际上只是节省了已用空间。
这是问题所在。假设我执行了上述操作,但不是在干净的系统上执行,并且没有足够快地进行 rsync 备份,并且我想访问映像上的文件。假设我没有存储空间来实际解压缩图像并将其 dd 到驱动器,但想挂载图像以从中获取单个文件......这可能吗?
通常情况下,人们不会压缩 dd 图像,这将允许您仅使用-o loop
...挂载图像,但这不是我的情况...
有什么建议可以即时安装压缩的 img 吗?
是否会使用AVFS来“挂载”gz 文件然后挂载内部 dd.img 工作(我不这么认为......但需要验证......)?
我有这个命令来备份远程机器。问题是我需要 root 权限来读取和复制所有文件。出于安全原因,我没有启用 root 用户并使用sudo
Ubuntu 方式。我需要一些很酷的管道或其他东西来做到这一点吗?
rsync -chavzP --stats user@192.168.1.2:/ /media/backupdisk/myserverbackup/
Run Code Online (Sandbox Code Playgroud) 为了备份所有用户生成的文件,应该备份哪些目录?
从 vanilla debian 安装,我可以做足够多的事情来获得我想要的包。因此,如果我不想备份整个系统,那么用户生成的配置和数据文件都驻留在文件系统中的哪个位置?
我有一个运行的 rsync 备份脚本,它还会在我询问时将文件还原回它们的来源。但是,如果我尝试恢复时目标文件比备份中的文件新,则不会替换它们。我真的想用备份中的文件替换较新的文件,但我看不到让 rsync 这样做的方法。
tldr:有没有办法强制 rsync 覆盖目的地的文件?
编辑:我一直在运行rsync -avhp
当我想恢复备份时,我使用相同的命令并交换了“to”和“from”。因此,它尝试将文件从备份驱动器复制到我计算机上它们所属的位置。
backup ×10
rsync ×3
command-line ×2
compression ×2
dd ×2
filesystems ×2
tar ×2
debian ×1
linux ×1
mount ×1
networking ×1
partition ×1
rm ×1
ssh ×1
storage ×1
ubuntu ×1
wildcards ×1