标签: backup

用tar压缩文件夹?

我试图压缩文件夹(/var/www/)来~/www_backups/$time.tar这里$time是当前日期。

这就是我所拥有的:

cd /var/www && sudo tar -czf ~/www_backups $time"
Run Code Online (Sandbox Code Playgroud)

我完全迷失了,我已经在这里呆了几个小时了。不确定是否-czf正确。我只是想将所有内容复制/var/www到一个$time.tar文件中,并且我想维护所有文件的文件权限。谁能帮我吗?

linux tar backup

349
推荐指数
2
解决办法
72万
查看次数

Rsync 过滤器:仅复制一种模式

我正在尝试创建一个目录,该目录将包含所有且仅我从 LaTeX 编译的 PDF。我喜欢将每个项目放在一个单独的文件夹中,所有项目都放在一个名为LaTeX. 所以我尝试运行:

rsync -avn *.pdf ~/LaTeX/ ~/Output/
Run Code Online (Sandbox Code Playgroud)

它应该找到所有的pdf~/LaTeX/并将它们传输到输出文件夹。这不起作用。它告诉我没有找到“ *.pdf”的匹配项。如果我省略此过滤器,该命令将列出 LaTeX 下所有项目文件夹中的所有文件。所以这是 *.pdf 过滤器的问题。我尝试用~/我的主目录的完整路径替换,但这没有效果。

我正在使用 zsh。我尝试在 bash 中做同样的事情,甚至使用列出每个子目录中每个文件的过滤器......这里发生了什么?

为什么 rsync 不能理解我的 pdf only 过滤器?


好的。所以更新:不,我正在尝试

rsync -avn --include="*/" --include="*.pdf" LaTeX/ Output/
Run Code Online (Sandbox Code Playgroud)

这给了我整个文件列表。我猜是因为一切都匹配第一个模式......

backup rsync wildcards

178
推荐指数
6
解决办法
19万
查看次数

在两台计算机之间发送大量数据的最快方法是什么?

这是我经常遇到的情况:

  • 我有一个内部有 320GB 硬盘驱动器和 16GB 内存的源服务器(此处提供确切规格,但由于这是我在其他机器上也经常遇到的问题,我希望答案适用于任何“合理”的 Linux 机器)
  • 我有一个有几 TB 硬盘空间的备份服务器(这里有确切的规格,请参阅上面的免责声明)

我想将 320GB 的数据从源服务器传输到目标服务器(特别是来自 的数据/dev/sda)。

  1. 两台计算机在物理上彼此相邻,因此我可以在它们之间铺设电缆。
  2. 我在局域网上,我使用的是新路由器,这意味着我的网络速度“理想情况下”应该是 1000Mbit,对吧?
  3. 安全不是问题。我在本地网络上,我信任网络上的所有机器,包括路由器。
  4. (可选)我不一定需要数据的签名校验和,但应该检测基本错误检查(例如丢弃的数据包或驱动器变得不可读),而不仅仅是消失在输出中。

我在网上搜索了这个问题,并测试了几个命令。出现频率最高的就是这个:

ssh user@192.168.1.100 'dd bs=16M if=/dev/sda | gzip' > backup_sda.gz
Run Code Online (Sandbox Code Playgroud)

这个命令被证明太慢了(它运行了一个小时,只得到了大约 80GB 的数据)。1GB 的测试数据包大约需要 1 分 22 秒,最终在未压缩时速度是原来的两倍。结果也可能因传输的文件小于源系统上的 RAM 量而产生偏差。

此外(这是在 1GB 测试片上测试的),如果我使用gzip命令和dd; 与直接通过管道传输相比,在目标上提取的结果文件具有不同的校验和。我仍在试图弄清楚为什么会发生这种情况。

networking backup file-transfer dd

117
推荐指数
7
解决办法
4万
查看次数

创建一个 tar 存档,分成最大大小的块

我需要备份一个相当大的目录,但我受到单个文件大小的限制。我想基本上创建一个tar.(gz|bz2)档案,该档案被分成 200MB 的最大档案。Clonezilla 通过拆分像这样命名的映像备份来做类似的事情:

sda1.backup.tar.gz.aa
sda1.backup.tar.gz.ab
sda1.backup.tar.gz.ac
Run Code Online (Sandbox Code Playgroud)

有没有办法在一个命令中做到这一点?我了解如何使用该split命令,但我不想创建一个巨大的存档,然后将其拆分为较小的存档,因为这将使我最初创建存档所需的磁盘空间增加一倍。

tar backup

102
推荐指数
4
解决办法
14万
查看次数

恢复意外删除的文件

我不小心从笔记本电脑中删除了一个文件。我正在使用 Fedora。是否可以恢复文件?

backup data-recovery rm

90
推荐指数
4
解决办法
8万
查看次数

用零清除未使用的空间 (ext3,ext4)

如何用零清除未使用的空间?(ext3,ext4)

我正在寻找比它更聪明的东西

cat /dev/zero > /mnt/X/big_zero ; sync; rm /mnt/X/big_zero
Run Code Online (Sandbox Code Playgroud)

就像FSArchiver正在寻找“已用空间”并忽略未使用但相反的站点。

目的:我想压缩分区图像,因此强烈建议用零填充未使用的空间。

顺便提一句。对于 btrfs :用零清除未使用的空间 (btrfs)

storage filesystems partition backup compression

86
推荐指数
4
解决办法
12万
查看次数

是否可以动态安装 gzip 压缩的 dd 图像?

我喜欢在第一次备份系统时创建映像备份。在第一次之后,我使用 rsync 进行增量备份。

我平时的镜像备份如下:

安装并清零空白空间:

dd if=/dev/zero of=temp.dd bs=1M

rm temp.dd

在压缩驱动器的同时卸载并添加驱动器

dd if=/dev/hda conv=sync,noerror bs=64K | gzip -c > /mnt/sda1/hda.ddimg.gz

为了让系统恢复正常,我通常会做一个

gunzip -c /mnt/sda1/hda.img.gz | dd of=/dev/hda conv=sync,noerror bs=64K

这真的很简单,允许我保存“整个驱动器”,但实际上只是节省了已用空间。

这是问题所在。假设我执行了上述操作,但不是在干净的系统上执行,并且没有足够快地进行 rsync 备份,并且我想访问映像上的文件。假设我没有存储空间来实际解压缩图像并将其 dd 到驱动器,但想挂载图像以从中获取单个文件......这可能吗?

通常情况下,人们不会压缩 dd 图像,这将允许您仅使用-o loop...挂载图像,但这不是我的情况...

有什么建议可以即时安装压缩的 img 吗?

是否会使用AVFS来“挂载”gz 文件然后挂载内部 dd.img 工作(我不这么认为......但需要验证......)?

command-line backup compression mount dd

83
推荐指数
5
解决办法
9万
查看次数

在没有root用户的情况下通过SSH rsync远程机器的所有文件?

我有这个命令来备份远程机器。问题是我需要 root 权限来读取和复制所有文件。出于安全原因,我没有启用 root 用户并使用sudoUbuntu 方式。我需要一些很酷的管道或其他东西来做到这一点吗?

rsync -chavzP --stats user@192.168.1.2:/ /media/backupdisk/myserverbackup/
Run Code Online (Sandbox Code Playgroud)

ssh ubuntu backup rsync

77
推荐指数
5
解决办法
12万
查看次数

我需要备份哪些目录?

为了备份所有用户生成的文件,应该备份哪些目录?

从 vanilla debian 安装,我可以做足够多的事情来获得我想要的包。因此,如果我不想备份整个系统,那么用户生成的配置和数据文件都驻留在文件系统中的哪个位置?

filesystems backup debian

70
推荐指数
3
解决办法
6万
查看次数

强制 rsync 覆盖目的地的文件,即使它们是较新的

我有一个运行的 rsync 备份脚本,它还会在我询问时将文件还原回它们的来源。但是,如果我尝试恢复时目标文件比备份中的文件新,则不会替换它们。我真的想用备份中的文件替换较新的文件,但我看不到让 rsync 这样做的方法。

tldr:有没有办法强制 rsync 覆盖目的地的文件?

编辑:我一直在运行rsync -avhp当我想恢复备份时,我使用相同的命令并交换了“to”和“from”。因此,它尝试将文件从备份驱动器复制到我计算机上它们所属的位置。

command-line backup rsync

61
推荐指数
1
解决办法
12万
查看次数