大型数据库上的 MongoDB 初始同步

ssa*_*asa 4 large-data mongodb mongodb-replica-set

我们正在使用具有三个节点的 MongoDB 副本集。该数据库相当大 2+ 十亿条记录,在磁盘(WiredTiger MongoDB 引擎)上占用 700GB。大多数对文档执行插入(每天数百万次),然后读取和更新。

更换辅助成员上的磁盘后,数据文件夹为空,初始同步开始。通过查看日志,复制记录需要大约 7 个小时,然后构建索引需要 30 个小时,但这对于 oplog 来说太多了,无法包含同时插入/更新的所有记录:

2016-11-16T23:32:03.503+0100 E REPL     [rsBackgroundSync] too stale to catch up -- entering maintenance mode
2016-11-16T23:32:03.503+0100 I REPL     [rsBackgroundSync] our last optime : (term: 46, timestamp: Nov 15 10:03:15:8c)
2016-11-16T23:32:03.503+0100 I REPL     [rsBackgroundSync] oldest available is (term: 46, timestamp: Nov 15 17:37:57:30)
2016-11-16T23:32:03.503+0100 I REPL     [rsBackgroundSync] See http://dochub.mongodb.org/core/resyncingaverystalereplicasetmember
Run Code Online (Sandbox Code Playgroud)

首先我们重新启动这个成员并开始重新同步:

2016-11-16T23:47:22.974+0100 I REPL     [rsSync] initial sync pending
2016-11-16T23:47:22.974+0100 I REPL     [ReplicationExecutor] syncing from: x3:27017
2016-11-16T23:47:23.219+0100 I REPL     [rsSync] initial sync drop all databases
2016-11-16T23:47:23.219+0100 I STORAGE  [rsSync] dropAllDatabasesExceptLocal 5
2016-11-16T23:53:09.014+0100 I REPL     [rsSync] initial sync clone all databases
Run Code Online (Sandbox Code Playgroud)

通过查看数据文件夹,所有文件都被删除并开始增长。但是大约 8 小时后,它几乎没有重新同步 5% 的数据库。

对于如此大的同步使用什么方法?

我们想增加 oplog 的大小,但这需要整个副本集的停机时间。我们可以在不停机的情况下使用哪些方法?

小智 5

如果可能,最好的解决方案是使用文件系统快照。

您可以直接快照 mongod 节点,只要 oplog 文件与其余数据文件位于相同的磁盘空间即可。无需“关闭”或做任何其他主动的事情。

如何使用快照进行恢复

然后您只需将这些文件复制到新节点数据目录并启动 mongod。

如果文件系统快照是不可能的,那么使用其他方法来复制工作 mongod 数据目录,如果您可以停机,那很容易。如果您不能停机,您总是可以添加几个(两个)仲裁器并暂时停止其他辅助节点(以复制数据目录),当然在此期间您的副本集基本上是“一个节点 RS”。

  • 由于它托管在 Google Compute Engine 上,因此可以通过以下步骤使用快照:1) 添加 2 个仲裁器(其中一个不起作用);2) 关闭一个健康的二级和冻结的文件系统;3)创建快照,解冻健康并重新上线;4) 使用此快照映像创建一个新磁盘并将其挂载到“不健康”服务器上;5)复制数据文件(虽然我们可以替换整个磁盘);6) 启动MongoDB,移除仲裁器,卸载新磁盘。花了大约两个小时才完成所有事情。 (2认同)