我正在尝试概述我将如何创建负载平衡的 Web 服务器设置。设置实际的负载平衡器并添加两个或更多 Web 服务器似乎很公平。但是,我无法决定文件的最佳设置是什么。
Web 服务器将运行 CMS 系统(在本例中为 Drupal)。可能有用户上传的与内容相关的文件,所有网络服务器都应该可以访问这些文件。现在,我想简单地拥有一个指定的文件服务器并在每个 Web 服务器上安装一个文件目录,以便各种 Web 服务器可以访问这些“共享”文件。
但是,如果我们谈论的是 4-5 个服务器,这个解决方案会成为瓶颈吗?我认为安装将通过 SSH 完成。
高度赞赏所有帮助!
更新(2013 年 1 月 15 日)
我决定结合使用 Csync2 和 Lsyncd。然后我设置了两个充当镜像的服务器。Lsyncd 侦听某些目录(及其子目录)中的更改并调用负责将文件同步到其他服务器的 Csync2。如果您有兴趣了解更多信息,请查看本教程。
我们有一个使用 DRBD、心跳和 nfs 暴露给客户端的高可用性 NFS 环境(类似于以下https://help.ubuntu.com/community/HighlyAvailableNFS)。这似乎是执行 HA nfs 的一种相当常见且得到良好支持的方法,并且对我们来说非常有效,并且有一个预期。
当心跳执行切换时,nfs 客户端都会挂起大约 60-120 秒。我可以看到心跳只需 5-10 秒即可完成接管并启动 nfs(我什至可以手动安装它)。但是连接的客户端似乎在重新建立工作连接之前等待某种超时。
我尝试了以下但没有成功;
设置如下;
笔记
任何建议将是最受欢迎的。
我正在评估使用两台现成服务器来构建廉价 iSCSI 冗余 SAN 的可能性。这个想法是运行 linux、pacemaker 和 iSCSI 目标——类似于linux-ha-examples 上的SAN Active-Passive。
当我阅读时,同一页让我有点害怕:
在 iscsi-target 的切换过程中,可以检测到 write-test.log 协议中的一个间隙。在我们的设置中,我们观察到了 30 秒的延迟。存在与 ext3 和 iSCSI 故障转移有关的问题报告 此配置已在 ext2 和 ext3 上进行了测试,并且适用于两个文件系统。
有没有人将一个由 linux 盒子制成的冗余 iSCSI SAN 投入生产?故障转移事件真的那么糟糕吗?I/O 中的 30 秒冻结对我来说听起来像是一场灾难,不是吗?
我们目前有许多使用 LDAP 进行身份验证的 Web 应用程序。为此,我们使用 LDAPS 端口 ( 636)将 Web 应用程序指向我们的 AD 域控制器之一。
当我们必须更新域控制器时,这给我们带来了问题,因为另一个 Web 应用程序可能依赖于任何 DC。
我们想将我们的 Web 应用程序指向一个集群“虚拟”IP。该集群将至少包含两台服务器(以便每个集群服务器都可以轮换和更新)。然后,集群服务器会将 LDAPS 连接代理到 DC,并能够找出可用的连接。
对于曾为 AD 的 LDAP 接口创建 HA 集群的任何人:
也许我的问题最初还不够清楚。对此我深表歉意。
这些 Web 应用程序不是由我们开发的,也不是 AD 感知的。他们只要求 LDAP 服务器的主机名/IP 地址。不幸的是,我们必须处理这个限制。我了解SRV records工作原理,但由于这些不是我们的应用程序,因此在这种情况下对我们没有帮助。
我们强迫开发人员修改他们的应用程序以识别 AD 也是不现实的。
唯一的选择是在基础设施内解决这个问题,而不是软件。我的问题是针对任何专门做过这件事的人。
windows-server-2008 cluster active-directory ldap high-availability
这似乎是一个简单的问题,但尽管多次查阅起搏器文档,我似乎还是找不到答案。
我已经使用起搏器设置了 corosync 以共享虚拟 IP。我想要做的就是在备份节点接管资源之前设置一个超时值。如果网络中断 <1-2 分钟,我希望起搏器继续正常运行,而不是触发故障转移,但如果中断超过一定数量,则将其切换。
资源超时 - 但这似乎是等待资源启动的超时,而不是整个集群的超时。
我正在尝试mod_jk用于负载平衡。
负载均衡器:172.17.8.189(HTTPD + mod_jk的)
节点1:172.17.8.193(的Apache Tomcat实例1)
节点2:172.17.8.196(的Apache Tomcat实例2)
我检查了我的 tomcat 实例,它们都在 8009 监听。但是,我不断收到这些错误。
[Tue Jun 18 17:49:14 2013][18057:47118810657648] [error] init_jk::mod_jk.c (3348): Initializing shm:/etc/httpd/logs/jk.shm.18057 errno=13. Load balancing workers will not function properly.
[Tue Jun 18 17:49:14 2013][18057:47118810657648] [info] init_jk::mod_jk.c (3365): mod_jk/1.2.37 initialized
Run Code Online (Sandbox Code Playgroud)
调试日志是
[Tue Jun 18 18:14:00 2013][18778:47687756850032] [debug] jk_set_time_fmt::jk_util.c (461): Pre-processed log time stamp format is '[%a %b %d %H:%M:%S %Y]'
[Tue Jun 18 18:14:00 2013][18778:47687756850032] [debug] uri_worker_map_open::jk_uri_worker_map.c (865): rule map size is 2
[Tue …Run Code Online (Sandbox Code Playgroud) 浏览了几个网站,现在似乎所有 hyper-v 集群都建立在 CSV(集群共享卷)上。
我有一个当前设置(2 节点窗口故障转移集群)。
我有 2 个虚拟机在 node1 上运行,每个虚拟机都在自己的集群磁盘中,例如
我也有 1 个虚拟机在 node2 上运行在它自己的集群磁盘中。
q1) node1 中的 VMS 可以在同一个 clusterdisk 中运行吗?(例如 clusterdisk1)?
q2)当node1故障时,node2将获得clusterdisk1,2的所有权并启动VM;那么使用 clusterdisk 和 CSV 有什么区别呢?
我正在使用窗口服务器 2012 r2
windows cluster hyper-v windows-server-2012 windows-server-2012-r2
我是 infiniband 网络的新手,但我需要使用一些节点扩展现有的 infiniband 集群。在我的探索性网络研究中,我发现了一些对电缆、连接器和开关的模糊描述。
根据维基百科,QSFP 被指定为 4x1Gb/s,QSFP+ 被指定为 4x10 或 40 Gb/s。然而,网络上的许多供应商都提供 40 Gb/s 的 QSFP 电缆和交换机。这似乎与我发现的不同 infiniband 布线的概述不符。
这只是草率的命名吗?这些 QSFP 40Gb/s 实际上是 QSFP+ 吗?QSFP 和 QSFP+ 之间的物理连接有区别吗?或者只是电缆质量不同(如 CAT6 和 CAT7 电缆),但连接器的形状相同?
如果有人能澄清这一点,我将非常感激。
在我的基础设施中,我有一个 SQL Server 2014 Standard 独立服务器。
随着使用 SQL Server 的数据库和应用程序不断增长,我想升级到 SQL Server 2016 Standard 并安装两个节点以获得高度可用的 SQL Server 基础架构。
我知道我可以创建一个 SQL Server 故障转移集群,但我需要一些共享存储,这可能不是问题,因为我有一个生产 NAS/SAN 可用,但它非常慢,因为它用于数据目的而不是用于应用程序目的.
由于我的虚拟化节点有一些快速的 SSD 本地存储,我希望使用它们来托管 SQL Server 数据,所以我想知道是否有一种方法可以在没有共享存储的情况下构建 SQL Server HA 集群,但进行主从复制在他们自己的本地存储上的两个节点之间,就像我已经在使用 MariaDB Galera Cluster 为 MariaDB 所做的那样。
我还有一个可用的 HAProxy。
谢谢!!
我想用Windows Server 2016标准创建一个带有 2 个服务器的2 节点集群。我的集群应该处于主动-被动配置
我想在两个节点之间传递一个虚拟 IP,然后配置从一个节点切换到另一个节点的服务,具体取决于谁处于活动状态。
我在 Centos 上用 HA 堆栈配置了类似的东西(起搏器,corosync链接)
可以在 Windows Server 2016 上做这样的事情吗?
谢谢
windows cluster high-availability virtual-ip windows-server-2016
cluster ×10
windows ×2
corosync ×1
drupal ×1
failover ×1
filesystems ×1
hyper-v ×1
infiniband ×1
iscsi ×1
ldap ×1
linux ×1
mirroring ×1
mod-jk ×1
networking ×1
nfs ×1
pacemaker ×1
replication ×1
scaling ×1
sql-server ×1
timeout ×1
tomcat ×1
ubuntu-10.04 ×1
virtual-ip ×1
web-server ×1