我有一个 nginx 服务器(CentOS 5.3,linux),在 8 个 ruby on Rails 应用程序服务器前面用作反向代理负载平衡器。随着这些服务器上的负载增加,我开始想知道 nginx 服务器什么时候会成为瓶颈?CPU 几乎不被使用,但这是可以预料的。记忆力好像还不错。没有IO可言。
那么我唯一的限制是网卡带宽吗?目前,根据一些 cacti 图表,服务器在高负载期间每个 NIC 的速度约为 700Kbps(平均 5 分钟)。我觉得这个比例还是很低的。
或者,限制是否在套接字或操作系统中的其他资源中?
感谢您的任何想法和见解。
编辑:
骑车者:
感谢您的见解。我做了更多的挖掘。我有 1 个工作人员允许 1024 个工作连接。我们假设 95% 的请求都是针对少量数据的。关于 512MB 的系统应该能够处理什么连接方面有什么建议吗?
另外,计算连接数的好方法是什么?这样的事情准确吗?:
netstat -np | grep ESTABLISHED | grep nginx | wc -l
Run Code Online (Sandbox Code Playgroud)
结束编辑
亚伦
我们有一个 Linux 服务器进程,它将几千个文件写入一个目录,删除这些文件,然后在不删除目录的情况下将另外几千个文件写入同一目录。我开始看到的是,写作的过程越来越慢。
我的问题是:从 ls -l 的输出可以看出,文件夹的目录大小已从 4096 增长到超过 200000。
root@ad57rs0b# ls -l 15000PN5AIA3I6_B total 232 drwxr-xr-x 2 Chef 厨师 233472 May 30 21:35 条码
在 ext3 上,这些大目录大小会降低性能吗?
谢谢。
亚伦