Rah*_*wad 2 replication consistency cassandra scylla
如果有人可以帮助解决以下问题,我们将不胜感激。
* RF =复制因子
* CL =一致性级别
我们要求强大的一致性和更高的可用性。因此,通过保持RF = 7(每个节点上100%的数据)和CL = QUORUM,我一直在测试7个节点ScyllaDB集群的RF和CL。如果2个节点出现故障,数据复制/复制将如何处理?是否将2个下行节点数据(第6和第7副本)复制到其余5个节点上?还是会简单地丢弃这些副本?如果只有5个活动节点,RF = 7会产生什么影响?
我在日志中找不到任何内容。在这种情况下,我们是否有任何文档/链接参考?或者我该如何验证和证明这种行为?请解释?
在RF = 7的情况下,数据始终复制到7个节点。当一个(或两个)节点发生故障时,五个节点中的其余节点已经具有副本,并且不需要其他流传输。
使用CL = QUORUM,即使关闭三个节点,也不会损害HA或一致性。当故障节点恢复正常运行时,它们将通过使用提示切换(对于短暂的故障)或与修复(对于较长的故障)自动同步[1]
如果替换死节点[2],则其他副本将向其流式传输数据,直到它与
[1] https://docs.scylladb.com/architecture/anti-entropy/ [2] https://docs.scylladb.com/operating-scylla/procedures/cluster-management/replace_dead_node/
| 归档时间: |
|
| 查看次数: |
64 次 |
| 最近记录: |