我的couchDB中有一个~10k条目(~30Mo,没有附件)数据库.
使用Pouchdb浏览器端,从沙发上复制时,需要一段时间才能完成...
让我感到惊讶的是我在沙发上收到的请求数量(成千上万!,我想和文件一样多) - 这是正常的吗?
有没有办法"批量"这些请求,并通常加快复制过程?
谢谢.
我假设你正在使用这个PouchDB.replicate功能
在这种情况下,请尝试修改batch_size选项:
PouchDB.replicate('mydb', 'http://localhost:5984/mydb', {batch_size: large_val})
Run Code Online (Sandbox Code Playgroud)
其中large_val高于默认值100.值越高,复制应该越快,但它将使用的内存越多,所以要小心.
请参阅API参考
编辑:还要注意batches_limit默认选项10.这是任何时候可以并行运行的请求数,因此内存中的文档数等于batch_size * batches_limit.
| 归档时间: |
|
| 查看次数: |
1236 次 |
| 最近记录: |