我对......感兴趣:
我读过他们,但我找不到一个好的比较.特别是我对比较它们的性能基准感兴趣.(也许我应该自己做一个!我希望不会.)
performance messaging high-availability zeromq spread-toolkit
我有一个应用程序,我想支持SQL Server镜像.但是,该体系结构目前是在单个MSDTC事务中登记多个WCF服务和数据库连接,Microsoft声明在使用镜像时不支持MSDTC.
他们的解释并不是非常有用的:
使用数据库镜像与MS DTC事务时,可能会出现类似的情况.例如,新的主体服务器在故障转移后联系MS DTC.但是,MS DTC不了解新的主体服务器.因此,即使事务被视为在其他数据库中提交,MS DTC也会停止处于"准备提交"阶段的任何事务.
我理解问题的是最后一句话.这与DB服务器没有镜像,并且在同一时间点死亡有什么不同?有人可以向我解释一下吗?我需要能够向组织中的其他人(以及客户)解释这一点,但我不明白为什么MSDTC可以在一种情况下正确回滚/补偿,但如果其中一个参与者是镜像SQL服务器则不能(完全安全模式).
sql-server msdtc failover high-availability database-mirroring
我有这种情况:
您有一个24/7全天候运行的工厂生产线.停机时间非常昂贵.控制所有不同部件的软件必须使用共享形式的数据库存储.主要原因是要知道工厂处于哪种状态.例如,某些产品在使用同一套设备时可以混合使用,而其他产品则可以混合使用.
要求:
系统每天处理一些hunderd分配,进行计算/检查,然后发送工厂机器的指令.系统在大多数时候都会很无聊.最重要的要求是中央计算机系统必须正确且始终有效.
我正在考虑使用基于发电机的数据库(riak或cassandra),其中数据被写入多台机器,每台机器都有整个数据库
当一个系统发生故障时,它会逐渐下降.当表更改并且此主从属更难配置时,传统的sql数据库可能更难以升级.
你的解决方案是什么?
网络已经变得冗余和大多数其他单点故障.数据库系统至关重要,因为数据库停机时间意味着整个工厂的停机时间不仅仅是可接受的机器之一.
http://zguide.zeromq.org/page:all#High-availability-Pair-Binary-Star-Pattern
希望在我的系统中添加高可用性主/主功能,目前正在考虑ZeroMQ Binary Star vs ZooKeeper.
各位大家好,我正在研究一个高可用性项目,我不得不为某些应用程序投入生产haproxy.一些基础测试后一切都很好,但我有一些错误,无法解决它.有人有想法吗?
这是测试
#/ usr/sbin/haproxy -d -f /etc/haproxy/haproxy.cfg
Available polling systems :
sepoll : pref=400, test result OK
epoll : pref=300, test result OK
poll : pref=200, test result OK
select : pref=150, test result FAILED
Total: 4 (3 usable), will use sepoll.
Using sepoll() as the polling mechanism.
[ALERT] 174/160258 (22038) : Starting proxy mysql: cannot bind socket
[ALERT] 174/160258 (22038) : Starting proxy http: cannot bind socket
Run Code Online (Sandbox Code Playgroud)
有我的文件haproxy.cfg
global
log 127.0.0.1 local0 notice
user haproxy
group haproxy
maxconn 32000 …Run Code Online (Sandbox Code Playgroud) 大家好我们正在寻找实用且经过测试的指南或参考kubernetes主高可用性或主节点故障转移的其他解决方案.
我正在使用具有多个apiservers的群集设置,其前面有一个负载均衡器,用于外部访问,并在裸机上安装.
就像高可用性Kubernetes Clusters文档中提到的那样,我想使用内部负载平衡来利用kubernetes我的集群中的服务.这到目前为止工作正常,但我不确定什么是最好的设置方式kube-proxy.它显然不能使用服务IP,因为它根据来自apiserver(master)的数据代理这个服务IP .我可以使用任何一个apiservers的IP,但这会导致失去高可用性.因此,我目前看到的唯一可行的选择是利用我的外部负载均衡器,但这似乎有点错误.
有人有什么想法或最佳实践吗?
I am reading about load balancing.
I understand the idea that load balancers transfer the load among several slave servers of any given app. However very few literature that I can find talks about what happens when the load balancers themselves start struggling with the huge amount of requests, to the point that the "simple" task of load balancing (distribute requests among slaves) becomes an impossible undertaking.
Take for example this picture where you see 3 Load Balancers (LB) and …
networking load-balancing high-availability amazon-web-services
首先我正在使用这个设置 postgres-docker-cluster,在故障转移期间一切正常,我停止主人和奴隶取代它的位置,但是如果我重新开启主人我不知道如何提升到再次掌握,我会赞赏正确方向的任何指针,我需要手动推广吗?对不起,我对这个概念很新(ha).这个docker使用repmgr,pgpool2和postgre 9.5.
码头上的一些信息
我想知道在跨数据中心运行Zookeeper时可用的现有方法吗?
我在做一些研究后发现的一种方法是让观察者.这种方法是在主数据中心只有一个有领导者和追随者的集合.并在备份数据中心拥有观察员.当主数据中心崩溃时,我们选择其他数据中心作为新的主数据中心,并手动将观察者转换为领导者/跟随者.
我想提出更好的方法来实现同样的目标.
谢谢
fault-tolerance high-availability distributed-computing apache-zookeeper
database ×2
kubernetes ×2
zeromq ×2
cassandra ×1
docker ×1
failover ×1
haproxy ×1
messaging ×1
msdtc ×1
networking ×1
performance ×1
postgresql ×1
proxy ×1
replication ×1
riak ×1
scalability ×1
sockets ×1
sql ×1
sql-server ×1