我部分继承了一个 Linux HA 集群,该集群的中心目前在两个 Debian 主机之间通过 IPoIB(IP over InfiniBand)提供与 DRBD 8 的连接。它没有坏,所以我不会修理它。
我还注意到 DRBD 9 支持 RDMA,因此问题可能会出现在将来是否通过 RDMA(即“本机”InfiniBand)替换与 DRBD 9 的连接。
由于我不想在生产系统上运行性能测试,我想知道:是否有已发布的 IPoIB 与 RDMA/InfiniBand 的性能比较。例如,我是否可以预期从 IPoIB 切换到 10%、50% 或 100% 的数量级的带宽/延迟增益?可以期待什么?
我的 Debian 8.9 DRBD 8.4.3 设置不知何故进入了两个节点无法再通过网络连接的状态。他们应该复制单个资源r1,但紧接着drbdadm down r1; drbadm up r1在两个节点上他们/proc/drbd描述的情况如下:
在第一个节点上(连接状态为WFConnection或StandAlone):
1: cs:WFConnection ro:Primary/Unknown ds:UpToDate/DUnknown C r-----
ns:0 nr:0 dw:0 dr:912 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:20
Run Code Online (Sandbox Code Playgroud)
在第二个节点上:
1: cs:StandAlone ro:Secondary/Unknown ds:UpToDate/DUnknown r-----
ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:48
Run Code Online (Sandbox Code Playgroud)
两个节点可以通过 中引用的 IP 地址相互 ping 通/etc/drbd.d/r1.res,并netstat显示两者都在引用的端口上进行侦听。
我如何(进一步诊断和)摆脱这种情况,以便两个节点可以连接并再次通过 DRBD 进行复制?
顺便说一句,在更高的抽象层次上,这个问题目前通过systemctl start drbd永不退出表现出来,显然是因为它被卡在了 …
我各有一个 PostgreSQL 9.6 主服务器和备用服务器。这两行在他们各自的postgresql.conf:
max_connections = 100
Run Code Online (Sandbox Code Playgroud)
备用的recovery.conf外观如下(统计数据host,user以及cluster隐藏的):
standby_mode = on
recovery_target_timeline = latest
primary_conninfo = 'host=<host> port=5433 user=<user>'
Run Code Online (Sandbox Code Playgroud)
当我pg_ctlcluster 9.6 <cluster> start报告以下错误时:
FATAL: hot standby is not possible because max_connections = 100
is a lower setting than on the master server (its value was 2000)
Run Code Online (Sandbox Code Playgroud)
我想知道:价值2000从何而来。两个集群都应该看到100,即相等的值。并且确实SHOW max_connections对高手产生了影响100。
这是怎么回事,我怎样才能使待机成功启动?