相关疑难解决方法(0)

如何优化大型数据库的mysqldump?

我有一个带有 InnoDB 数据库的 symfony 应用程序,它有 57 个表,大约 2GB。数据库的大部分大小驻留在单个表中(~1.2GB)。我目前正在使用 mysqldump 每晚备份数据库。

由于我的 comcast 连接,通常如果我手动运行转储,我与服务器的连接将在转储完成之前超时,导致我不得不重新运行转储。[我目前运行一个每晚执行转储的 cron,这仅适用于我手动运行的转储。]

有没有办法加快连接超时问题的转储,同时也可以限制服务器被这个进程占用的时间?

顺便说一句,我目前正在努力减少整个数据库的大小来解决这个问题。

mysql innodb mysqldump performance backup

198
推荐指数
6
解决办法
25万
查看次数

备份和恢复“mysql”数据库

我使用以下命令备份一些普通数据库:

mysqldump --host=host --user=user --password=passwd --result-file=result.sql -R --single-transaction database_name
Run Code Online (Sandbox Code Playgroud)

我的问题是:我还需要转储“mysql”数据库吗?请注意,在“恢复”它们之后,我将为每个数据库创建新用户。所以我不需要用户信息的“mysql”数据库。

谢谢

mysql mysqldump backup

6
推荐指数
2
解决办法
4891
查看次数

标签 统计

backup ×2

mysql ×2

mysqldump ×2

innodb ×1

performance ×1