我正在尝试使用mysqldump导出需要使用不同数据库名称导入的数据库.查看mysqldump生成的SQL,看起来触发器是唯一一个完全符合源数据库名称的对象名称,从而扼杀了我的需求.反正有没有指导mysqldump没有完全限定任何对象名称,包括触发器?
可能的重复:
关于备份 php 站点和 mysql db 的建议
是否有任何 php 脚本可以进行文件系统备份和数据库备份(最好将它们压缩在一起)并将备份发送到远程服务器?
我有一个程序将日志记录数据保存到SQLite3数据库.我想在程序仍在运行时备份数据库.我已经通过使用SQLite在线备份API(http://www.sqlite.org/backup.html)完成了这项工作并且工作正常,但是在备份完成之前它会滞后于进程...
有谁知道在SQLite中进行增量备份的方法?我最好只备份新数据,而不是每次运行备份时备份整个数据库.
我一直在使用Amazon RDS一段时间,并使用我自己的mysqldump备份例程补充自动备份,该例程将sql转储复制到远程(非AWS)服务器.
但是,mysqldump导致服务器负载飙升,并且通常是资源占用.如果可以的话,我想摆脱它.
据我所知,原生RDS自动备份程序看起来非常强大和可靠.我的(效率低下,管理密集程度更高)冗余的例程是否必要,或者我只是偏执狂?
FWIW,数据是关键任务,因为失去所有(或大部分)数据对组织来说将是灾难性的.然而,丢失少量数据(例如,价值5-10分钟),并不会太糟糕.
谢谢.
我正在管理一个相当大的SQL Server数据库.某些表包含对业务至关重要的数据,必须每天在异地备份.但是我们还有其他(读写)表,占用的数据库大小只有业务关键型的一半.我想做的是这样的事情:
Primary filegroup: Tables A, B, C --> daily backup
Secondary filegroup: Tables D, E, F --> monthly (or occasional manual) backup
Run Code Online (Sandbox Code Playgroud)
当我尝试测试时,我在尝试恢复文件组时遇到错误.看起来我无法单独还原单个文件组或从不同时间点恢复不同的文件组.理想情况下,我希望能够首先恢复主文件组(最重要的一个),然后恢复次要文件组.我愿意接受辅助文件组上的一些数据丢失.
可以这样做吗?
我正在尝试备份我的SQL Server 2008 R2数据库.但是,无论我在哪里尝试保存备份,我都会收到以下错误.
System.Data.SqlClient.SqlError:设备上的卷'D:\ Programfiles\Microsoft SQL Server\MSSQL.1\MSSQL\Backup\dbName.bak'不是多系列媒体集的一部分.BACKUP WITH FORMAT可用于形成新的媒体集.(Microsoft.SqlServer.Smo).
任何人都可以对此有所了解吗?
我可以google唯一有用的链接,但很少使用:
和
http://www.sqlservercentral.com/Forums/Topic279584-24-1.aspx
您对定期备份 parse.com 数据库有什么建议吗?
关于这方面的信息非常稀少,我想在仪表板中执行类似于手动导出数据功能的操作,但每天执行一次。
有没有人有他们想分享的脚本或类似的东西?
Parse 说他们会考虑这个功能,但一年过去了。
我正在读关于备份的内容.我明白了什么是物理备份.但是我无法理解什么是逻辑备份?它是如何工作的?
工作的图形表示将有所帮助.
提前致谢
根据在线文档,为了备份数据,您必须在启用后转到数据存储管理员.它在我的生产服务器上启用.
要导入,只需再次转到管理页面,然后选择刚刚创建的后面名称.我已将我的Google Bucket备份下载到本地驱动器上,按照此处的便捷指南的所有步骤进行操作http://gbayer.com/big-data/app-engine-datastore-how-to-efficiently-export-您的数据/
既然我在本地拥有数据,那么我一直试图将它放入本地开发服务器.
appcfg.py upload_data --application=dev~<APP_ID> --url=http://localhost:8080/_ah/remote_api --filename=<lengthyfilename>.backup_info
04:03 PM Uploading data records.
[INFO ] Logging to bulkloader-log-20161230.160323
[INFO ] Throttling transfers:
[INFO ] Bandwidth: 250000 bytes/second
[INFO ] HTTP connections: 8/second
[INFO ] Entities inserted/fetched/modified: 20/second
[INFO ] Batch Size: 10
[INFO ] Opening database: bulkloader-progress-20161230.160323.sql3
[ERROR ] [Thread-1] RestoreThread:
Traceback (most recent call last):
File "C:\Program Files (x86)\Google\google_appengine\google\appengine\tools\bulkloader.py", line 1555, in run
self.PerformWork()
File "C:\Program Files (x86)\Google\google_appengine\google\appengine\tools\bulkloader.py", line 2838, in PerformWork
cursor.execute('select id, value from result') …Run Code Online (Sandbox Code Playgroud) database-backups google-cloud-datastore google-cloud-platform
该mongo客户端可以使用标准的URI连接:
mongo mongodb://<dbuser>:<dbpassword>@<server>:<port>/<db>
Run Code Online (Sandbox Code Playgroud)
但是,mongodump似乎需要笨拙的语法才能将其分解为不同的参数:
mongodump -u dbuser -p dbpassword -h server -p port -d db ...
Run Code Online (Sandbox Code Playgroud)
是否有一种快速简便的方法来传递URI mongodump?
database-backups ×10
backup ×5
database ×2
sql-server ×2
amazon-rds ×1
c ×1
mongodb ×1
mysql ×1
mysqldump ×1
php ×1
replication ×1
sqlite ×1