Joã*_*imo 2 performance resources database-performance node.js rethinkdb
我问这个问题是因为我想了解如何更好地运行 RethinkDB,这意味着它应该在什么样的硬件上运行,应该在什么样的文件系统上运行,以及其他系统配置来最大化它的吞吐量。
我正在尝试尽可能快地用{"n": <counter>, "rand": <Math.random()>}. 我在某处读到这对于 200 个文档的批处理速度更快,所以这就是我要插入的内容。我也在使用柔软的耐用性。我开始了一个 nodejs 进程,我可以平均每秒插入 10k 个文档,非常好。
但是在发生这种情况时,rethinkdb 使用了大约 70% 的一个核心(我有 8 个虚拟核心,它是 i7-4770),而 nodejs 进程使用了 5%。所以看起来CPU不是瓶颈。
一旦我开始另一个 nodejs 进程做同样的事情,两个进程上的每秒插入次数就会下降到大约 4k-5k。同样,CPU 负载保持不变。
我解雇了iotop,我确实在那里看到了很多行动,但不是我所期望的。我在 RAID0 中配置了两个 SSD,快速dd测试表明我可以以大约 800MBps 的速度写入和读取。这远高于 iotop 报告的实际读取和实际写入速度(平均读取 ~14MBps 平均写入 ~50MBps)。
那么我怎样才能耗尽我机器的资源呢?rethinkdb 需要什么才能运行得更快?为什么它不花费更多的资源并具有更高的吞吐量?
关于它运行的更多信息:它是Hetzner 的 EX40SSD,软件 RAID0 中的两个 SSD,ext4 文件系统(明天我将尝试安装它,noatime看看它是否更好)。默认情况下,rethinkdb 配置就是一切,插入是对只有一个分片和一个副本的表进行的。请随时询问我可能忘记提及的任何其他相关问题。
提前致谢。
我怀疑这里发生的是实际 btree 上的锁争用。当您插入大量文档时,系统会并行抓取 btree 的各个部分,以使用新文档对其进行更新。这是一组读写锁——系统的其他部分仍然可以读取,但是如果你并行插入另一个大batch,很有可能会碰到btree的相似部分,因此必须等待以便系统在插入第一批零件时开始解锁。(这不是 RethinkDB 特有的,而是一般数据库中的问题)这可能是您没有达到 100% CPU/磁盘吞吐量的原因。
您可以尝试一些方法,但请注意,各种方法都有其微妙之处。总体而言,基准测试很难。
希望这会有所帮助 - 很想知道您在基准测试方面的进展。我们在内部做了很多,发现系统在不同用例上的性能边界是一门艺术和一门科学。
| 归档时间: |
|
| 查看次数: |
975 次 |
| 最近记录: |