ssa*_*asa 4 large-data mongodb mongodb-replica-set
我们正在使用具有三个节点的 MongoDB 副本集。该数据库相当大 2+ 十亿条记录,在磁盘(WiredTiger MongoDB 引擎)上占用 700GB。大多数对文档执行插入(每天数百万次),然后读取和更新。
更换辅助成员上的磁盘后,数据文件夹为空,初始同步开始。通过查看日志,复制记录需要大约 7 个小时,然后构建索引需要 30 个小时,但这对于 oplog 来说太多了,无法包含同时插入/更新的所有记录:
2016-11-16T23:32:03.503+0100 E REPL [rsBackgroundSync] too stale to catch up -- entering maintenance mode
2016-11-16T23:32:03.503+0100 I REPL [rsBackgroundSync] our last optime : (term: 46, timestamp: Nov 15 10:03:15:8c)
2016-11-16T23:32:03.503+0100 I REPL [rsBackgroundSync] oldest available is (term: 46, timestamp: Nov 15 17:37:57:30)
2016-11-16T23:32:03.503+0100 I REPL [rsBackgroundSync] See http://dochub.mongodb.org/core/resyncingaverystalereplicasetmember
Run Code Online (Sandbox Code Playgroud)
首先我们重新启动这个成员并开始重新同步:
2016-11-16T23:47:22.974+0100 I REPL [rsSync] initial sync pending
2016-11-16T23:47:22.974+0100 I REPL [ReplicationExecutor] syncing from: x3:27017
2016-11-16T23:47:23.219+0100 I REPL [rsSync] initial sync drop all databases
2016-11-16T23:47:23.219+0100 I STORAGE [rsSync] dropAllDatabasesExceptLocal 5
2016-11-16T23:53:09.014+0100 I REPL [rsSync] initial sync clone all databases
Run Code Online (Sandbox Code Playgroud)
通过查看数据文件夹,所有文件都被删除并开始增长。但是大约 8 小时后,它几乎没有重新同步 5% 的数据库。
对于如此大的同步使用什么方法?
我们想增加 oplog 的大小,但这需要整个副本集的停机时间。我们可以在不停机的情况下使用哪些方法?
小智 5
如果可能,最好的解决方案是使用文件系统快照。
您可以直接快照 mongod 节点,只要 oplog 文件与其余数据文件位于相同的磁盘空间即可。无需“关闭”或做任何其他主动的事情。
然后您只需将这些文件复制到新节点数据目录并启动 mongod。
如果文件系统快照是不可能的,那么使用其他方法来复制工作 mongod 数据目录,如果您可以停机,那很容易。如果您不能停机,您总是可以添加几个(两个)仲裁器并暂时停止其他辅助节点(以复制数据目录),当然在此期间您的副本集基本上是“一个节点 RS”。
| 归档时间: |
|
| 查看次数: |
5410 次 |
| 最近记录: |