构建 nginx 以实现冗余

cod*_*ero 5 nginx failover load-balancing

这可能是一个愚蠢的问题,但经过谷歌搜索一段时间后,我找不到答案,或者只是不知道如何问。

我有一个 Web 应用程序在名为“myserver1”的服务器上运行。我使用相同的 Web 应用程序实例启动了“myserver2”,并在两个盒子上的两个数据库之间设置了复制。现在,我想使用 nginx 来做一些负载平衡,并在另一台服务器崩溃时让一台服务器接管。

大多数 nginx 文档都是围绕这样的简单场景编写的,但它似乎表明您将 nginx 服务器放在 Web 服务器前面。这似乎是另一个单点故障。如何让 nginx 本身变得冗余?你可以在两个 Web 服务器上都运行 nginx 吗?如果是这样,您将 myapp.mydomain.com 的 DNS 条目指向哪里?

编辑:我想我应该补充一点,这是一个用户群相对较小的内部应用程序。我主要担心的是,如果我们失去服务器或与其中一个数据中心的连接,我们的内部用户仍然可以访问它。我只是不知道如何在 nginx 上做到这一点而不引入另一个单点故障。

Ber*_*set 5

nginx 中负载平衡的唯一方法是使用单个前端(反向代理)主机负载平衡后端服务器。

这种设计背后的想法/假设是,负载仅发生在后端,并且您的单个入口点始终能够处理它应该处理的任何流量,因为它只是重定向并且本身从不处理任何内容。

你所说的实际上是故障转移,而不是负载平衡。您担心的是单个入口点的失败。

正如 @coding_hero 所解释的,这与 nginx 无关,它是在底层(操作系统/网络)处理的事情。

一种方法可以在下一页上阅读(尽管是谈论 Debian oldstable 的旧示例,命令可能需要更新):http://linuxmanage.com/fast-failover-configuration-with-drbd-and- heartbeat-on-debian-squeeze.html。Heartbeat 是一项众所周知的技术,允许多个相同的服务器相互监控、选举主服务器并根据需要故障转移到从服务器。

您甚至可以让专用网络硬件通过将流量重新路由(或者可能动态重新配置路由器以重新路由?)来完成相同的工作到当前选出的主节点。