相关疑难解决方法(0)

如何优化大型数据库的mysqldump?

我有一个带有 InnoDB 数据库的 symfony 应用程序,它有 57 个表,大约 2GB。数据库的大部分大小驻留在单个表中(~1.2GB)。我目前正在使用 mysqldump 每晚备份数据库。

由于我的 comcast 连接,通常如果我手动运行转储,我与服务器的连接将在转储完成之前超时,导致我不得不重新运行转储。[我目前运行一个每晚执行转储的 cron,这仅适用于我手动运行的转储。]

有没有办法加快连接超时问题的转储,同时也可以限制服务器被这个进程占用的时间?

顺便说一句,我目前正在努力减少整个数据库的大小来解决这个问题。

mysql innodb mysqldump performance backup

198
推荐指数
6
解决办法
25万
查看次数

在具有活动读写的实时系统上执行 mysqldump 的最安全方法?

我不确定这是否属实,但我记得读过你是否在 linux 中运行以下命令

mysqldump -u username -p database_name > backup_db.sql
Run Code Online (Sandbox Code Playgroud)

在对数据库进行读取和写入时,转储可能包含错误。

命令中是否有特定选项mysqldump可确保在实时系统上安全完成此操作?我可以对我们的用户禁用读/写几秒钟(数据库 <50MB)

mysql mysqldump backup linux

99
推荐指数
2
解决办法
16万
查看次数

标签 统计

backup ×2

mysql ×2

mysqldump ×2

innodb ×1

linux ×1

performance ×1