标签: cluster

负载平衡 Drupal 服务器:在服务器之间共享数据的好方法?

我正在尝试概述我将如何创建负载平衡的 Web 服务器设置。设置实际的负载平衡器并添加两个或更多 Web 服务器似乎很公平。但是,我无法决定文件的最佳设置是什么。

Web 服务器将运行 CMS 系统(在本例中为 Drupal)。可能有用户上传的与内容相关的文件,所有网络服务器都应该可以访问这些文件。现在,我想简单地拥有一个指定的文件服务器并在每个 Web 服务器上安装一个文件目录,以便各种 Web 服务器可以访问这些“共享”文件。

但是,如果我们谈论的是 4-5 个服务器,这个解决方案会成为瓶颈吗?我认为安装将通过 SSH 完成。

高度赞赏所有帮助!

更新(2013 年 1 月 15 日)

我决定结合使用 Csync2 和 Lsyncd。然后我设置了两个充当镜像的服务器。Lsyncd 侦听某些目录(及其子目录)中的更改并调用负责将文件同步到其他服务器的 Csync2。如果您有兴趣了解更多信息,请查看本教程

cluster scaling web-server load-balancing drupal

6
推荐指数
3
解决办法
6621
查看次数

发生接管时,高可用性 NFS 服务器(心跳/DRBD)在客户端上长时间挂起

我们有一个使用 DRBD、心跳和 nfs 暴露给客户端的高可用性 NFS 环境(类似于以下https://help.ubuntu.com/community/HighlyAvailableNFS)。这似乎是执行 HA nfs 的一种相当常见且得到良好支持的方法,并且对我们来说非常有效,并且有一个预期。

当心跳执行切换时,nfs 客户端都会挂起大约 60-120 秒。我可以看到心跳只需 5-10 秒即可完成接管并启动 nfs(我什至可以手动安装它)。但是连接的客户端似乎在重新建立工作连接之前等待某种超时。

我尝试了以下但没有成功;

  • 确保 /var/lib/nfs 存储在 drdb 磁盘上并符号链接回 /var/lib
  • UDP 或 TCP 客户端连接
  • NFS 服务器导出定义导出中的 fsid。
  • 在挂载中使用客户端 timeo=
  • 硬/软安装

设置如下;

  • NFSv4
  • Ubuntu LTS 服务器和客户端
  • 当前客户端挂载选项=proto=tcp,noauto,bg,intr,hard,noatime,nodiratime,nosuid,noexec

笔记

  • 我注意到 /var/lib/nfs/rmtab 总是空的,我不知道为什么。这可能是原因吗?
  • 客户端是无 GUI 的 ubuntu 10.4 LAMP 堆栈服务器。
  • 当客户端停止时,任何试图访问共享的程序都会停止。例如,执行“df”将在 nfs 挂载行挂起 ssh 会话,直到 nfs 返回。

任何建议将是最受欢迎的。

cluster filesystems nfs mirroring ubuntu-10.04

6
推荐指数
1
解决办法
1861
查看次数

两节点 linux san 上 iSCSI 目标的故障转移有多好?

我正在评估使用两台现成服务器来构建廉价 iSCSI 冗余 SAN 的可能性。这个想法是运行 linux、pacemaker 和 iSCSI 目标——类似于linux-ha-examples 上SAN Active-Passive

当我阅读时,同一页让我有点害怕:

在 iscsi-target 的切换过程中,可以检测到 write-test.log 协议中的一个间隙。在我们的设置中,我们观察到了 30 秒的延迟。存在与 ext3 和 iSCSI 故障转移有关的问题报告 此配置已在 ext2 和 ext3 上进行了测试,并且适用于两个文件系统。

有没有人将一个由 linux 盒子制成的冗余 iSCSI SAN 投入生产?故障转移事件真的那么糟糕吗?I/O 中的 30 秒冻结对我来说听起来像是一场灾难,不是吗?

linux cluster iscsi storage-area-network failover

6
推荐指数
2
解决办法
9089
查看次数

如何使 AD 对于将其用作 LDAP 服务的应用程序高度可用

我们的情况

我们目前有许多使用 LDAP 进行身份验证的 Web 应用程序。为此,我们使用 LDAPS 端口 ( 636)将 Web 应用程序指向我们的 AD 域控制器之一。

当我们必须更新域控制器时,这给我们带来了问题,因为另一个 Web 应用程序可能依赖于任何 DC。

我们想要什么

我们想将我们的 Web 应用程序指向一个集群“虚拟”IP。该集群将至少包含两台服务器(以便每个集群服务器都可以轮换和更新)。然后,集群服务器会将 LDAPS 连接代理到 DC,并能够找出可用的连接。

问题

对于曾为 AD 的 LDAP 接口创建 HA 集群的任何人:

  1. 集群用的什么软件?
  2. 有什么注意事项吗?
  3. 或者也许是一个完全不同的架构来完成类似的事情?

更新

也许我的问题最初还不够清楚。对此我深表歉意。

这些 Web 应用程序不是由我们开发的,也不是 AD 感知的。他们只要求 LDAP 服务器的主机名/IP 地址。不幸的是,我们必须处理这个限制。我了解SRV records工作原理,但由于这些不是我们的应用程序,因此在这种情况下对我们没有帮助。

我们强迫开发人员修改他们的应用程序以识别 AD 也是不现实的。

唯一的选择是在基础设施内解决这个问题,而不是软件。我的问题是针对任何专门做过这件事的人。

windows-server-2008 cluster active-directory ldap high-availability

6
推荐指数
2
解决办法
1万
查看次数

资源传输前的 Pacemaker/corosync 超时

这似乎是一个简单的问题,但尽管多次查阅起搏器文档,我似乎还是找不到答案。

我已经使用起搏器设置了 corosync 以共享虚拟 IP。我想要做的就是在备份节点接管资源之前设置一个超时值。如果网络中断 <1-2 分钟,我希望起搏器继续正常运行,而不是触发故障转移,但如果中断超过一定数量,则将其切换。

资源超时 - 但这似乎是等待资源启动的超时,而不是整个集群的超时。

cluster timeout pacemaker corosync

6
推荐指数
1
解决办法
3242
查看次数

mod_jk 产生错误 smh errno=13

我正在尝试mod_jk用于负载平衡。

负载均衡器:172.17.8.189(HTTPD + mod_jk的)
节点1:172.17.8.193(的Apache Tomcat实例1)
节点2:172.17.8.196(的Apache Tomcat实例2)

我检查了我的 tomcat 实例,它们都在 8009 监听。但是,我不断收到这些错误。

[Tue Jun 18 17:49:14 2013][18057:47118810657648] [error] init_jk::mod_jk.c (3348): Initializing shm:/etc/httpd/logs/jk.shm.18057 errno=13. Load balancing workers will not function properly.
[Tue Jun 18 17:49:14 2013][18057:47118810657648] [info] init_jk::mod_jk.c (3365): mod_jk/1.2.37 initialized
Run Code Online (Sandbox Code Playgroud)

调试日志是

    [Tue Jun 18 18:14:00 2013][18778:47687756850032] [debug] jk_set_time_fmt::jk_util.c (461): Pre-processed log time stamp format is '[%a %b %d %H:%M:%S %Y]'
[Tue Jun 18 18:14:00 2013][18778:47687756850032] [debug] uri_worker_map_open::jk_uri_worker_map.c (865): rule map size is 2
[Tue …
Run Code Online (Sandbox Code Playgroud)

cluster tomcat load-balancing mod-jk

6
推荐指数
1
解决办法
1万
查看次数

HyperV 故障转移群集(带/不带 CSV)

浏览了几个网站,现在似乎所有 hyper-v 集群都建立在 CSV(集群共享卷)上。

我有一个当前设置(2 节点窗口故障转移集群)。

我有 2 个虚拟机在 node1 上运行,每个虚拟机都在自己的集群磁盘中,例如

  • clusterdisk1 (owner-node1) 上的 vmA (owner-node1)
  • clusterdisk2 (owner-node1) 上的 vmB (owner-node1)

我也有 1 个虚拟机在 node2 上运行在它自己的集群磁盘中。

  • clusterdisk3 (owner-node2) 上的 vmC (owner-node2)

q1) node1 中的 VMS 可以在同一个 clusterdisk 中运行吗?(例如 clusterdisk1)?

q2)当node1故障时,node2将获得clusterdisk1,2的所有权并启动VM;那么使用 clusterdisk 和 CSV 有什么区别呢?

我正在使用窗口服务器 2012 r2

windows cluster hyper-v windows-server-2012 windows-server-2012-r2

6
推荐指数
3
解决办法
1781
查看次数

QSFP+ 和 QSFP 40Gb/s infiniband 连接之间的兼容性和区别

我是 infiniband 网络的新手,但我需要使用一些节点扩展现有的 infiniband 集群。在我的探索性网络研究中,我发现了一些对电缆、连接器和开关的模糊描述。

根据维基百科,QSFP 被指定为 4x1Gb/s,QSFP+ 被指定为 4x10 或 40 Gb/s。然而,网络上的许多供应商都提供 40 Gb/s 的 QSFP 电缆和交换机。这似乎与我发现的不同 infiniband 布线的概述不符。

这只是草率的命名吗?这些 QSFP 40Gb/s 实际上是 QSFP+ 吗?QSFP 和 QSFP+ 之间的物理连接有区别吗?或者只是电缆质量不同(如 CAT6 和 CAT7 电缆),但连接器的形状相同?

如果有人能澄清这一点,我将非常感激。

networking cluster infiniband linux-networking

6
推荐指数
1
解决办法
3986
查看次数

SQL Server 故障转移策略

在我的基础设施中,我有一个 SQL Server 2014 Standard 独立服务器。

随着使用 SQL Server 的数据库和应用程序不断增长,我想升级到 SQL Server 2016 Standard 并安装两个节点以获得高度可用的 SQL Server 基础架构。

我知道我可以创建一个 SQL Server 故障转移集群,但我需要一些共享存储,这可能不是问题,因为我有一个生产 NAS/SAN 可用,但它非常慢,因为它用于数据目的而不是用于应用程序目的.

由于我的虚拟化节点有一些快速的 SSD 本地存储,我希望使用它们来托管 SQL Server 数据,所以我想知道是否有一种方法可以在没有共享存储的情况下构建 SQL Server HA 集群,但进行主从复制在他们自己的本地存储上的两个节点之间,就像我已经在使用 MariaDB Galera Cluster 为 MariaDB 所做的那样。

我还有一个可用的 HAProxy。

谢谢!!

cluster replication sql-server database-replication

6
推荐指数
1
解决办法
538
查看次数

带有 Windows Server 2016 的 2 节点集群(主动-被动)

我想用Windows Server 2016标准创建一个带有 2 个服务器的2 节点集群。我的集群应该处于主动-被动配置

  • 没有共享存储(SAN、iSCSI 等)
  • 没有活动目录

我想在两个节点之间传递一个虚拟 IP,然后配置从一个节点切换到另一个节点的服务,具体取决于谁处于活动状态。

我在 Centos 上用 HA 堆栈配置了类似的东西(起搏器,corosync链接

可以在 Windows Server 2016 上做这样的事情吗?

谢谢

windows cluster high-availability virtual-ip windows-server-2016

6
推荐指数
1
解决办法
1728
查看次数