Windows 备份实用程序带有一个备份系统状态的选项。这个是来做什么的?它有真正的效用吗?我可以在另一台机器上恢复那个窗口吗?
我正在尝试删除 rdiff 备份文件夹,因为备份过程中出现了一些问题,需要删除它的历史记录并重试。但是,当我运行时:
rm -r -f rdiff-backup-data
Run Code Online (Sandbox Code Playgroud)
我在一些文件上得到以下信息:
rm: cannot remove `X': Read-only file system
Run Code Online (Sandbox Code Playgroud)
这是我运行 mount 时得到的:
/dev/sdb1 on /media/usbdisk type ext3 (rw)
Run Code Online (Sandbox Code Playgroud)
所以这表明驱动器是rw?
ls -la /media/usbdisk 给出以下内容:
[root@localhost v5]# ls -la /media/usbdisk
total 36
drwxr-xr-x 5 root root 4096 Mar 31 2010 .
drwxrwxrwx 9 root root 4096 Dec 15 2009 ..
drwxrwxrwx 39 501 501 4096 Aug 19 09:04 development-backup
drwx------ 2 root root 16384 Mar 30 2010 lost+found
drwxr-xr-x 8 root 501 4096 Aug 19 00:00 …Run Code Online (Sandbox Code Playgroud) 我们有一个正在运行的系统,它使用 rdiff-backup 进行备份。但是,备份分区空间不足,因此我们需要重新检查这种情况。我们确实需要一个永久的解决方案,但在那之前,我们只需要在备份分区上释放一些空间。
我找到了许多可以删除的文件*,但我想知道我应该如何执行此操作。第一步当然是从实际文件系统中删除文件。但是,接下来我需要从备份中删除它(这就是我们需要空间的地方),但我不知道如何去做。有没有人知道如何做到这一点?
*某人 - 长期不在办公室 - 在他的主目录中有游戏和个人照片,多个虚拟硬盘副本
我在数量和总文件大小方面都有大量文件。(我们说的是几 TB)。我想将这些文件/文件夹同步到外部备份系统一次,然后运行每日任务,该任务将根据每日更改重新同步备份。更改并不那么频繁,但有时我们可能会有大约 300GB 的差异(大约 1.5K 文件)。
我一直在考虑将 rsync 或 rdiff-backup 或 rsnapshot 作为一些工具,但我想先用 rsynch 运行一些测试。我遇到了 rsync 的一个主要问题,那就是:
检查现有文件的更改花费的时间太长。我们正在谈论超过 20 小时,这使得每日备份毫无意义。这是使用 rsync -rvhzP 或 -rvhP。即使没有添加/更改/删除文件,它似乎只是扫描所有文件并且需要几个小时。
难道我做错了什么?我提到的任何其他系统(rdiff-backup 或 rsnapshot)的性能会更好吗?我一直假设它们是基于 rsync 的。
提前致谢。
更新额外信息: 我们有大约 2600 个目录和 100k 个文件,总共大约 3.5TB,使用rsync version 3.0.9 protocol version 30. 就每日更改而言,通常每天有 10 个文件更改,但它可以在大约 1.5K 文件更改/添加/删除和大约 300Gb 的容量达到峰值(尽管这些峰值并不那么频繁,并且通常会分散)
我只是觉得有点奇怪,这个强大的工具自 2009 年以来没有任何错误修复(如果有的话)!
也是这样 过时的 稳定,还是强大到不需要任何更新?
(PS 这背后的原因是我正在寻找一个备份工具。rdiff-backup 确实适合我的需求,但缺乏错误修复/积极开发是让我远离使用这个工具的原因)
在尝试将一个相当大的文件夹 (450G) 备份到该服务器中的 2TB 驱动器时,该驱动器仅作为备份目标rdiff-backup(版本 1.2.8 - 最后标记为stable)导致内核崩溃。
系统:
Linux giorgio 3.2.0-4-amd64 #1 SMP Debian 3.2.51-1 x86_64 GNU/Linux
Run Code Online (Sandbox Code Playgroud)
磁盘:软件镜像RAID模式下2块1TB磁盘,1块2TB磁盘专用于备份。
我有一个怀疑:服务器上的内存是2G RAM + 2G swap = 4G。文件大小最大为 16G。是否有可能rdiff-backup在某个时候将整个文件加载到内存中?
在任何情况下,都不应该发生内核恐慌(因为 rdiff 进程被杀死了?所以内存应该再次可用?),所以我想我的问题有两部分,一:关于我的怀疑,二:关于内核恐慌。
顺便说一下,恐慌是最近开始的,相当多的备份已经成功——完整的和增量的——并且那些大 GB 文件已经存在。所以我猜这是新的 Debian 内核的错而不是 rdiff-backup 的错?
发生恐慌时的日志文件部分http://pastebin.com/e9a5fQdh
屏幕上的最后一件事:

编辑/更新:我刚刚尝试创建一个 20GB 的交换文件(使用来自 /dev/zero 的 dd)并且服务器再次关闭,对ping.
从查看日志来看:似乎内核已经杀死了一些进程 - 包括我怀疑导致这一切的那个进程(rdiff-backup) -但说“耗尽了可杀死的进程”。似乎杀死进程并没有释放内存?
大家好,在 etc/crontab 中使用 Ubuntu10 进入我的服务器 linux 我有这个:
0 0 * * * user rdiff-backup -v9 user@111.111.111.111::/var/www/ /mnt/server1/www
0 1 * * * user rdiff-backup -v9 user@222.222.222.222::/var/www/ /mnt/server2/www
0 2 * * * user rdiff-backup -v9 user@333.333.333.333::/var/www/ /mnt/server3/www
Run Code Online (Sandbox Code Playgroud)
例如,服务器有一个 2Tb 的硬盘,我的备份大约占用了 1Tb。
我每天晚上都做备份,现在如果这个备份工作一年或更长时间,我的硬盘空间我认为会减少,因为 rdiff-backup 制作了更改文件的历史记录。
是否可以限制到我的 crontab 中来限制历史记录和维护控制的硬盘空间?类似于:“30 版本后取消最旧的”。
可以将其放入我的文件 crontab 中吗?
昨天我在 Windows 服务器机器上部署了一个基于 rdiff-backup 的简单备份,我们的客户有很多超过 250 个字符的文件名/路径。我们获得的每个新客户都会遇到这个问题,所以我的问题是,您如何处理这些情况?(有太多文件无法手动处理)
这让我有点抓狂,因为以前它运行了一个完整而快乐的备份。
克朗:
/usr/bin/rdiff-backup --exclude /var/yp --exclude /var/tux --exclude /var/tmp --exclude /var/www/usage --exclude /var/www/quarantine --exclude /var/www/coursebup --exclude /var/www/manual --exclude /var/www/icons --exclude /var/www/error --exclude /var/www/cgi-bin --exclude /var/spool --exclude /var/run --exclude /var/racoon --exclude /var/preserve --exclude /var/opt --exclude /var/nis --exclude /var/net-snmp --exclude /var/mail --exclude /var/lost+found --exclude /var/log --exclude /var/lock --exclude /var/local --exclude /var/lib --exclude /var/gdm --exclude /var/games --exclude /var/empty --exclude /var/db --exclude /var/clamav --exclude /var/cache --exclude /var/account --exclude /usr --exclude /tmp --exclude /sys --exclude /srv --exclude /selinux --exclude /sbin --exclude /root --exclude /proc --exclude …
rdiff-backup ×9
linux ×4
backup ×2
centos ×2
windows ×2
cron ×1
debian ×1
kernel-panic ×1
permissions ×1
rsnapshot ×1
rsync ×1
system-state ×1