我知道oplog文件会将多个更新分成单独的更新,但是批量插入呢?那些也分成单独的插入?
如果我有一个写密集的集合,大约每30秒插入一批~20K文档,我是否应该考虑增加我的oplog大小超出默认值?我有一个3成员副本集,mongod运行在64位Ubuntu服务器安装上,Mongodb数据位于100GB卷上.
以下是一些可能有用或可能没有帮助的数据:
gs_rset:PRIMARY> db.getReplicationInfo()
{
"logSizeMB" : 4591.3134765625,
"usedMB" : 3434.63,
"timeDiff" : 68064,
"timeDiffHours" : 18.91,
"tFirst" : "Wed Oct 24 2012 22:35:10 GMT+0000 (UTC)",
"tLast" : "Thu Oct 25 2012 17:29:34 GMT+0000 (UTC)",
"now" : "Fri Oct 26 2012 19:42:19 GMT+0000 (UTC)"
}
gs_rset:PRIMARY> rs.status()
{
"set" : "gs_rset",
"date" : ISODate("2012-10-26T19:44:00Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "xxxx:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"uptime" : 77531, …Run Code Online (Sandbox Code Playgroud) mongodb ×1