我维护了几个具有合理用户上传媒体文件和半大数据库的低流量网站.我的目标是在中央位置备份不受版本控制的所有数据.
目前,我使用一个夜间cronjob,用于dumpdata将所有数据库内容转储到项目子目录中的JSON文件中.媒体上传已经在项目目录(中media)中.
转储数据库后,文件将复制rdiff-backup(进行增量备份)到另一个位置.然后我定期下载rdiff-backup目录rsync以存储本地副本.
您用什么来备份数据?请发布您的备份解决方案 - 如果您的网站每天只有几次点击,或者您使用共享数据库和多个文件服务器维持高流量的应用程序:)
感谢您的输入.
我的备份解决方案的工作原理如下:
每天晚上,将数据转储到一个单独的目录。我更喜欢将数据转储目录与项目目录区分开来(原因之一是项目目录随着每次代码部署而变化)。
使用 运行作业将数据上传到我的 Amazon S3 账户和另一个位置rsync。
向我发送包含日志的电子邮件。
为了在本地恢复备份,我使用脚本从 S3 下载数据并将其上传到本地。
| 归档时间: |
|
| 查看次数: |
1929 次 |
| 最近记录: |