如何改善码头响应时间?

Mic*_*son 6 java jetty

我正在尝试加速测试码头(与使用apache进行比较)以提供动态内容.

我正在使用三个客户端线程测试这个,一旦响应回来就再次请求.它们运行在本地盒子(OSX 10.5.8 mac book pro)上.Apache几乎是开箱即用的(XAMPP发行版),我测试了Jetty 7.0.2和7.1.6

Apache正在给我的spikey时间:响应时间高达2000ms,但平均为50ms,如果你删除尖峰(大约2%),平均每次通话10ms.(这是一个PHP hello world页面)

Jetty给我没有尖峰,但响应时间约为200ms.

这是调用localhost:8080/hello /与jetty一起分发,并启动jetty java -jar start.jar.

这对我来说似乎很慢,我想知道它是否只是我做错了什么.

如何从码头获得更好的数字的任何sugestions将不胜感激.

谢谢

the*_*man 19

好吧,既然我在Jetty上成功运行了一些有一些流量的网站,我对你的观察感到非常惊讶.

所以我只是尝试了你的测试.结果相同.

所以我反编译了Jetty附带的Hello Servlet.我不得不笑 - 它真的包括以下几行:

 Thread.sleep(200L);
Run Code Online (Sandbox Code Playgroud)

你可以亲眼看看.

我自己在Jetty性能方面的经验:我在我的真实应用程序上运行多线程负载测试,在我的开发工作站上我的吞吐量大约是每秒1000个请求...

  • Thread.sleep()的原始原因和起源是神话和传说的东西.由于我们是开发人员而非人类学家,我们已经在Jetty 9.x(ugh)中删除了它 (4认同)

gre*_*egw 5

还要注意,速度测试实际上只是一个延迟测试,只要知道要测量的内容就可以了。但是Jetty确实权衡了延迟与吞吐量之间的关系,因此经常有一些服务器的延迟较低,但吞吐量也较低。

Web服务器的实际流量不是3个非常繁忙的连接-1个浏览器将打开6个连接,因此代表一半的用户。更为现实的流量是成百上千的连接,每个连接大多数都是空闲的。

阅读有关此主题的博客:https : //webtide.com/truth-in-benchmarking/https://webtide.com/lies-damned-lies-and-benchmarks-2/