在尝试使用来自大约50亿个数据库的查询来运行数据库转储时,进度条时间似乎表明该转储不会在任何合理的时间(超过100天)内完成。查询似乎在0%处结束(大约22个小时后)后也冻结了–后一行是metas.json行。
转储行是:
mongodump -h myHost -d myDatabase -c mycollection --query "{'cr' : {\$gte: new Date(1388534400000)}, \$or: [ { 'tln': { \$lte: 0., \$gte: -100.}, 'tlt': { \$lte: 100, \$gte: 0} }, { 'pln': { \$lte: 0., \$gte: -100.}, 'plt': { \$lte: 100, \$gte: 0} } ] }"
Run Code Online (Sandbox Code Playgroud)
我的最后几行输出是(键入,因为我还不能发布图像。)
[timestamp] Collection File Writing Progress: 10214400/5066505869 0% (objects)
[timestamp] Collection File Writing Progress: 10225100/5066505869 0% (objects)
[timestamp] 10228391 objects
[timestamp] Metadata for database.collection to dump/database/collection.metadata.json
Run Code Online (Sandbox Code Playgroud)
是否有任何有助于提高性能的想法,或有关为什么要花这么长时间的想法?