备份充满大型数据库备份文件的目录的最有效方法是什么?

Pet*_*ace 6 backup sql-server

我们在 Stack Exchange 使用 NetBackup,我正在努力改进我们的备份策略以提高效率。

目前,我们使用 SQL 2008 R2 并让 SQL 运行维护计划将数据备份到 .bak 文件。写入该文件后,我们将备份存储 .bak 文件的目录。

我们不使用 NetBackup 的 SQL 代理,因为我们将 .bak 文件用于简单备份之外的其他用途。

我正在考虑制定每周/差异/累积轮换的时间表,但考虑到目录将包含保证每天都是新的大文件的事实,并且考虑到我们的系统会自动老化超过特定天数的备份,我认为标准的“办公室文件服务器”方案可能比其他方法效率低。

有没有“最有效”的方法来处理这个问题?

vor*_*aq7 2

我对 SQL Server 备份的经验很少,所以在尝试下面我的半生不熟的方案之前,请先对 SQL Server 代理进行各种备份技术的研究(Bacula声称有一种)。


我的数据库备份解决方案非常适合 PostgreSQL:我镜像到一个从站,然后当备份时间到来时,我关闭该从站,让 Bacula 备份 DB 目录,然后重新启动从站,以便它可以赶上复制。
这样做的优点是快速恢复和对备份大小的公平妥协(仅备份更改的表支持文件,但备份过程确实会获取整个,而不仅仅是增量)。

类似的东西可能适用于你的情况。第一次刷我建议:

  1. 设置从服务器
  2. 在远程站点设置一台运行rsync守护进程的计算机以进行 rsync。
  3. 每天晚上在备份时关闭从属服务器并将数据库文件 rsync 到远程站点,然后重新启动从属服务器并让它赶上复制。

这与我正在做的设置非常相似,除了通过直接rsyncng 您的数据,您可以利用 rsync 的块级扫描(并且希望通过网络传输的数据比我获取完整表支持的数据要少)文件)。