我知道这些问题很难回答 :) 但我想对将服务分离到不同服务器上的影响有所了解。
具体来说,我正在建立一个网站,该网站将有一个媒体服务器(apache 提供静态文件)、一个应用程序服务器(apache 处理 php 文件)、一个主数据库服务器和一个从数据库服务器。
我打算在媒体和应用程序服务器上运行 memcached 作为共享池,但想知道这样做是否很昂贵(在时间和资源方面)?显然,每次(从应用服务器)请求 memcached 调用时,它都必须与媒体服务器建立 tcp 连接,找出结果的位置,然后返回它们。
对于像这样的小型网站设置,在应用服务器上增加内存而不是跨服务器池 memcached 会更好吗?还是差异如此之小,不值得担心?
即使我使用 memcached 作为示例,我还是希望答案保持相当通用,因为相同的场景可以应用于其他服务(如数据库)。
更具体地说,我计划建立一个负载均衡的电子商务网站。两个负载均衡器将接受来自管的 https 连接,然后根据 ssl 的性质,它们需要验证连接,解密它,然后将未加密的请求转发到应用程序服务器上。
在一个安全的专用网络中,一切都很好,但是我想用虚拟机(slicehost)运行这个设置。从理论上讲,这些机器应该位于专用网络上,但是另一个人的机器(切片)可以以某种方式窥探网络内的流量是可行的。我需要假设网络不安全。
所以。我考虑过使用 ssh,有人建议我使用 VPN(我之前没有设置过,也不太了解)。如果我使用 ssh,我将需要持续监控连接并确保其正常运行。
我想我想知道其他人是怎么做的?
越简单越好(即,可能出错和需要监控的事情越少)
这是一个 linux 设置。我正在考虑使用磅作为负载平衡器。还需要在这方面做一些测试。也开始阅读 nginx 了。