res*_*tor 5 windows backup storage-area-network
我正在寻找一种方法来创建大约 8TB 数据的异地备份。我目前已将数据分解为 2-4TB 文件系统,并且我正在使用 ShadowProtect 将数据从 SBS 2003 服务器备份到 Windows 2003 备份服务器,使用每周完整备份和每晚增量备份。
由于种种原因,我对这个解决方案不是很满意。
如果可能的话,我正在寻找的是某种方式有一个本地备份服务器来容纳许多快照,而不像faubackup那样存储重复数据似乎能够做到。同样,我希望能够跨越在一组外部磁盘上进行的备份,而没有重复的数据,因为文件系统比单个磁盘上的容量大。
如果我错了,请纠正我,但据我所知,由于使用硬链接,因此将新数据跨越比 faubackup 本身使用的文件系统更多的文件系统是不可能的。
我也一直在考虑使用 openfiler 以某种方式来实现相同的目标,但还没有想到一种方法。
其他人如何应对如此大量数据的异地备份。
编辑:
有关更多背景信息,我们是一家相对较小(约 15 名员工)的地质公司,我们基本上采用大量数据集,并使它们具有可读性。项目经常遇到数百个演出。尽管异地备份很重要,但我很难获得购买磁带自动加载机所需的资金,该磁带自动加载机将处理我们正在查看的那种数据。我已经尝试过并且基本上被告知必须有另一种方式,我必须找到它。
我们有两台服务器。一台 SBS2003 服务器和一台用作备份服务器的 Windows 2003 R2 服务器。两台机器都有一个 20TB 的 RAID6 阵列来存放我们的数据。在任何一天以及常规内容中,都会对许多非常大的文件进行细微的修改。
我们有大约 1TB 的数据,并使用自定义 rsync 脚本每晚备份所有内容。rsync 的好处是它只复制修改的字节(而不是整个修改的文件)......而且它在传输之前压缩数据。
在我们的旧系统中,我们必须将磁带和磁盘运回家,因为每天大约有 200GB 的文件被修改。但使用 rsync 时,仅传输这些文件中 1GB 左右的修改数据,并压缩至约 200MB。因此,我们能够在几分钟内通过 T1 将所有内容备份到远程站点(在维护繁重的日子里,不到一个小时)。这些脚本还利用 Linux 硬链接仅使用 2-4TB(压缩前)的空间来维护 30 天的完整存档(不是增量)。因此,我们最终能够在几秒钟内恢复存档数据,同时还可以维护异地存储。
幸运的是,磁盘驱动器空间跟上了我们公司的增长……我认为我们在两个地点的整体解决方案成本约为 1000 美元。
归档时间: |
|
查看次数: |
1880 次 |
最近记录: |