我正在评估 GlusterFS 和 Ceph,似乎 Gluster 是基于 FUSE 的,这意味着它可能不如 Ceph 快。但是看起来 Gluster 有一个非常友好的控制面板并且易于使用。
前几天Ceph被并入linux内核,这表明它的潜力更大,未来可能是一个不错的选择。
我想知道哪个(甚至两者中的?)是生产使用的更好选择?如果你能分享你的实践经验就好了
performance filesystems load-balancing distributed-filesystems
我有来自两个不同 ISP 的两个 Internet 连接,我需要平衡两个 ISP 之间来往于我的网络的流量。我正在使用 Debian GNU/Linux。
我的设置是这样的 -
eth0 (192.168.0.0/24) -- 本地网络
eth1 (192.168.1.0/24) -- ISP #1
eth2 (192.168.2.0/24) -- ISP #2
我的本地网络通过 eth0 连接到这台服务器,并且这个盒子是 LAN 中所有机器的 DHCP 服务器兼网关。
服务器需要在两个 ISP 之间进行负载平衡,还需要进行 NAT-ing。
我已经遵循了lartc.org上的路由说明,但我仍然需要正确执行 NAT 的说明。
任何帮助将不胜感激。
PS - 我知道 pFsense,但我需要使用 Linux。
我们希望能够按需添加更多后端服务器。现在我没有看到一种方法可以在不重新启动 haproxy 的情况下将更多后端服务器添加到配置文件中。
我们的应用程序的 REST API 由运行在 AWS EC2 实例上的 Gunicorn(不支持Nginx)提供服务,具有典型的自动扩展/负载平衡设置。负载均衡器的空闲超时为 60 秒,Gunicorn 的保持活动超时为 2 秒。我们一直在看到504 Gateway Timeout这种配置的零星响应。根据Amazon docs,这可能是因为服务器的保持活动超时低于负载均衡器的空闲超时设置:
原因 2:已注册实例关闭与 Elastic Load Balancing 的连接。
解决方案 2:在您的 EC2 实例上启用 keep-alive 设置,并将 keep-alive 超时设置为大于或等于您的负载均衡器的空闲超时设置。
对于 Nginx,默认keepalive_timeout值为 75 秒,这显然适用于 ELB 默认设置。但是,Gunicorn 文档建议keepalive在 1-5 秒范围内进行设置。
将 Gunicorn 的保活时间提高到 75 秒是否有意义,或者即使我们没有在它前面使用反向代理,也有充分的理由将其保持在 5 秒以下?
我们有一个需要高度可用的 SaaS 应用程序。我们已经拥有一个昂贵且维护良好的 Hyper-V 故障转移集群,但今天我们托管该集群的数据中心断电了五个小时,使我们完全离线。所以现在我们想知道是否有更好的方法是在两个独立的数据中心使用服务器。假设我们让所有的后端文件复制和数据复制在这两个站点之间工作,我们想知道如何处理前端路由——难怪我们如何解决这个问题,我们总是以负载均衡器结束单点故障。
所以问题是......我们如何在两个托管站点之间设置负载平衡,以使负载平衡器不是单点故障?有没有办法使用两个单独的负载平衡器,每个站点一个?我们应该考虑轮询 DNS 吗?
我试图将 mydomain.eu 指向一个 AWS 负载均衡器,它本质上没有稳定的 IP,所以我想我应该将 A 记录指向 Amazon 的一个子域,但就其性质而言我可以告诉 A 记录只能是一个 IP 地址,所以我现在非常困惑。
mydomain.eu 的区域文件是什么样的,其中 A 记录和 www 子域都指向 loadbalancer.mydomain.aws.com?
domain-name-system bind load-balancing amazon-ec2 amazon-web-services
有什么关于什么时候应该使用roundrobin和什么时候使用的建议leastconn吗?
我roundrobin目前正在使用并观察到我的后端服务器的负载分布不均匀。当然可能还有其他问题,但我们想leastconn尝试一下,但由于它是一个关键任务服务器,我想在进行更改之前咨询其他经验。
有什么想法可以分享吗?
我在配置 nginx 时遇到问题。
我使用 nignx 作为反向代理。我想将所有请求发送到我的第一台服务器。如果第一台服务器关闭,我想向第二台服务器发送请求。
简而言之,如何在没有负载平衡的情况下拥有故障转移解决方案?
我正在为一个非常大的网络(大约 5000 个网络设备)实施网络监控解决方案。我们希望网络上的所有设备都将 SNMP 陷阱发送到单个盒子(从技术上讲,这可能是一对 HA 盒子),然后让该盒子将 SNMP 陷阱传递到真正的处理盒子。这将允许我们有多个后端盒处理陷阱,并在这些后端盒之间分配负载。
我们需要的一个关键功能是能够根据陷阱的源地址将陷阱转发到特定的框。有关处理此问题的最佳方法的任何建议?
我们考虑过的事情包括:
我们目前已经实施并正在测试最后一个解决方案,使用一个配置了 IPTables 的 Linux 机器来接收陷阱,然后根据陷阱的源地址,用目标 nat (DNAT) 重写它,以便数据包被发送到合适的服务器。例如:
# Range: 10.0.0.0/19 Site: abc01 Destination: foo01
iptables -t nat -A PREROUTING -p udp --dport 162 -s 10.0.0.0/19 -j DNAT --to-destination 10.1.2.3
# Range: 10.0.33.0/21 Site: abc01 Destination: foo01
iptables -t nat -A PREROUTING -p udp --dport 162 -s 10.0.33.0/21 …Run Code Online (Sandbox Code Playgroud) 我必须在两台共享不同服务器上的数据库的服务器上安装 wordpress(一个博客,一个域,例如 mycompany.com/blog),这两台服务器位于负载均衡器后面,而数据库位于另一台服务器上。由于交通繁忙,我们正在计划这种方式。
我已经在一台服务器上完成了独立的 wordpress 安装,在 Windows 2003、2008 和 IIS6、7 等
我只是在研究如何实现这一点。
实现这一目标的步骤是什么,在搜索时我看到一些关于 wp-content/uploads 目录的帖子要定期同步?
非常感谢您的帮助 感谢阅读
我们做了什么 :
a) 我们有两个 web 服务器连接到一个 san 集群 b) 在 san 上创建了一个博客目录 c) 将该博客目录映射为两个 web 服务器上的虚拟目录 d) 在其中任何一个上安装 wordpress(作为域和 IIS 虚拟两台服务器的目录相同 - 例如 www.abc.com) e) 该博客的数据库位于两个 MySQL 盒上
由于 Wordpress 位于 san 上,因此与上传或类似内容没有冲突,博客 url 是 www.abc.com/blog,这就是它在两者上的配置方式。
希望对某人有所帮助!
load-balancing ×10
amazon-ec2 ×2
failover ×2
haproxy ×2
bind ×1
filesystems ×1
gunicorn ×1
high-load ×1
linux ×1
nat ×1
netflow ×1
networking ×1
nginx ×1
performance ×1
python ×1
scaling ×1
snmp ×1
udp ×1
wordpress ×1