我想要一个可以访问系统上所有文件和文件夹的用户。这是为了在本地机器上使用 RSYNC 来备份远程机器。
目前我们正在使用该用户backups,尽管我们已将此用户添加到组中sudo,但adminrsync 仍然返回如下消息:
rsync: opendir "/location/to/folder" 失败:权限被拒绝 (13)
rsync:send_files 无法打开“/location/to/file”:权限被拒绝 (13)
任何想法我们如何授予用户backups访问所有内容的权限(除了将用户添加到所有组之外 - 我们尝试备份的远程服务器是专用托管服务器,其中每个帐户在系统上都有自己的用户)。
谢谢你的帮助。
如何安全可靠地恢复使用或完成的将文件复制$A到备份位置的过程?$Bpv "$A" > "$B"cat "$A" > "$B"
(假设文件$A很大,例如 LVM2 快照文件)
它可以实现dd吗?
首选:bash 或 python(最好是 python3)解决方案。
示例场景:pv "$A" > "$B"复制 90% 后中断。如何恢复它,以完成复制过程而不是再次重复整个工作?
我在另一台计算机上安装了 Linux,我想将我的/home目录移动到那台计算机上。我想用任何文件权限、符号链接等备份该目录。
我该怎么做?tar gzip 有什么参数吗?
任何想法如何备份您无权读取的某些文件和/或目录的目录结构?我想忽略那些,没有备份(tar?jar?)崩溃。
我想使用duplicity.
因此,我创建根目录的备份/,但不包括/proc,/sys,/tmp,和/mnt。
但是,尝试将备份还原到根目录时,出现以下错误:
Restore destination directory / already exists.
Will not overwrite.
Run Code Online (Sandbox Code Playgroud)
将--force选项添加到命令后,我收到一系列[Errno 17]错误,指出各种文件已经存在。
是否要恢复duplicity备份,目标文件系统必须有足够的空间将恢复解压到临时目录?然后由用户来合并备份数据和现有系统?
我正在考虑执行 Clonezilla 备份并想知道选择哪种备份模式。一般来说,Clonezilla 提供以下备份选项:
对应的还原方式有两种:
我正在寻找的是这两种选择的混合体。我希望能够在完全失败的情况下恢复特定分区和恢复我的完整硬盘驱动器。Clonezilla 是否支持这种开箱即用的恢复途径?
到目前为止,我还没有找到任何关于此的官方文档。我找到的唯一参考是2010年的邮件列表讨论,它指向imgconvert,这是一个自定义脚本,可以将磁盘映像转换为分区映像。不幸的是,我不知道这个脚本是否仍然有效。毕竟已经5岁了。
这就是为什么我想在这里询问是否有人对 Clonezilla 的这个用例有任何经验,并且可以担保这个解决方案(或不同的解决方案,就此而言)。
我想使用 rsync 使用以下命令将文件从 Windows 驱动器复制到外部硬盘驱动器:
rsync -azv --progress --exclude-from '/home/mint/exclude.txt' '/media/mint/OS/' '/media/mint/external_hdd/C_drive_backup/'
Run Code Online (Sandbox Code Playgroud)
在exclude.txt我有 Windows、Program Files 和 ProgramData 文件夹,因为我不需要它们。所以我启动了上面给出的命令并去睡觉了。当我醒来时,这是我得到的:
sent 169,748,362,821 bytes received 3,982,112 bytes 16,898,347.01 bytes/sec
total size is 193,085,110,161 speedup is 1.14
rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1183) [sender=3.1.0]
Run Code Online (Sandbox Code Playgroud)
那么我应该担心某些东西没有被复制吗?如果我使用该命令du -hs /media/mint/OS/* | sort -h并计算我应该得到的总大小,则大约为 187 GB(与 rsync 的输出(以字节到千兆字节为单位:169,748,362,821-> ~158GB. 193,085,110,161-> ~179GB.)
我能看到哪些文件/文件夹没有被复制吗?如果我向上滚动,我可以看到最后 200 行,并且所有这些都 100% 完成。
我应该再次复制文件吗?或者有没有办法比较外置硬盘和 Windows 驱动器上的文件?
最近几天我一直在玩 obnam,虽然它看起来很有前途,而且似乎基本上提供了我在备份工具中想要的一切,但我对它的性能非常失望。事实上,它太慢了,我怀疑 obnam 在这里甚至没有错,而是我环境中的某些东西导致了它。
所以我主要想知道,是否还有其他人在使用 obnam 或者对它的内部结构有足够的了解来识别问题。
据我目前所知,obnam 似乎为每个备份的文件分叉了一个单独的 gpg 进程。从 htop、strace 和 iostat 来看,初始备份的速度主要受不断分叉的限制,而 CPU 和驱动器(不涉及网络)大多处于空闲状态,低于 20% 的利用率。
我的备份总计约 500.000 个文件,总共有 170 GiB 的数据。因此,对于每次备份运行,gpg 会分叉 500.000 次。我什至不感到惊讶的是,初始运行几乎需要一整天的时间,而在大多数文件未更改的情况下,另一次运行需要三个多小时。但这真的是 obnam 用户应该期望的性能吗?为了比较:rsnapshot(相同数据、相同机器、相同驱动器)的增量运行大约需要四分钟。当然,没有涉及加密,但这不应该那么重要。
所以,问清楚一点:其他人的机器是否也不能每秒运行 gpg(加密一小块数据)超过 50 次,最终使 obnam 成为一个几乎无法使用的缓慢工具?还是只有我一个人?
(FWIW,我的机器是带有 8G RAM 和 SSD 驱动器的 Core i5-2500,运行 Gentoo。备份到 HDD,但我无法观察到备份到 SSD 有什么区别,因为它不是 I/O -边界。)
出于备份的目的,我想通过 ssh 链接传输(几个)整个磁盘分区。源是块特殊设备,目标应该是常规文件。但是,常用工具似乎不适合于此:
scp 会抱怨 not a regular filetar 将尝试在目标端重新创建设备 inodersync 说 skipping non-regular file我目前最好的选择是nc通过端口转发,或cat在每个分区的远程端调用一次,这意味着每个分区输入一个密码,除非设置公钥。有没有更优雅的解决方案?
环境可以是任何合理的Linux live系统。目前我碰巧有一个 Debian wheezy,但它不应该太具体。
我希望了解我的操作系统 (Pop OS Linux) 上的 RAID 设置并备份我的笔记本电脑。
我希望在一个外部驱动器(驱动器 A)上建立适当的备份方案,并希望在另一个外部驱动器(驱动器 B)之间建立 RAID 1。驱动器 A 和 B 都不会镜像我的硬盘驱动器,但我希望它们相互镜像以实现备份冗余。我尝试为他们设置 RAID 1,但他们试图镜像我的启动驱动器,这不是我想要的。
RAID 是否适合以这种方式镜像外部驱动器?或者有更好的工具吗?启动时驱动器必须存在吗?
在没有驱动器的情况下重新启动计算机时,我遇到了始终需要驱动器的问题。
backup ×10
file-copy ×2
linux ×2
permissions ×2
restore ×2
rsync ×2
ssh ×2
tar ×2
block-device ×1
clonezilla ×1
cloning ×1
disk-image ×1
duplicity ×1
files ×1
performance ×1
raid ×1
storage ×1