我有关于在不同的配置中运行PHP的基本想法,如mod_php,cgi,FastCGI等.
在我的发现和测试中,我发现FastCGI略胜一筹.我最喜欢FastCGI对SuEXEC的支持.等等我不想再次进入基准测试业务.如果你上网,你会发现在每秒处理的请求数量方面,证明一种方式比另一种更快的人.那么它的好指标,但我对不同的因素感兴趣,这是我的问题......
请注意,我对DIGG或交通高峰的生存兴趣不大.我想要一种可以使服务器稳定和可预测的方法.
对不起,如果我很困惑,但我真的很乱.我有512MB物理内存,400MB交换和我的服务器疯狂的内存不足.平均内存需求大约为350MB,只是内存使用量激增使得内存几秒钟无法访问,如果在那几秒钟窗口中收到的额外点击很少,则apache在mysql和所有其他fellas运行正常时崩溃.
请帮帮我们.我不会买更多的RAM或硬件.我很确定问题出在我的配置中.对不起,如果我听起来傲慢或无知.
我正在使用PHP开发电子商务应用程序.为了保证URL的安全,产品下载链接保留在PHP之后.有一个文件,比如download.php,它通过GET接受几个参数并根据数据库验证它们.如果一切顺利,它使用PHP中的readfile()函数提供文件.
现在问题来自传递给readfile()的文件大于php.ini中设置的内存限制因为这个应用程序将被许多用户用于共享托管,我们无法继续改变php.ini设置.
在我们寻找变通方法的努力中,我首先想到我们可以在while循环中进行fread()调用,但似乎会出现问题以及突出显示在PHP中可靠地下载大文件
所以我最好的选择是检测/检查服务器是否支持X-Accel-Redirect(如果是Nginx)/ X-Sendfile(如果是Apache)
如果服务器支持X-Accel-Redirect/X-Sendfile,我可以使用它们,在else块中我可以让系统管理员知道php.ini强制执行的内存限制
理想情况下,我希望尽可能使用像X-Accel-Redirect/X-Sendfile这样的服务器端支持,如果这不起作用 - 我希望有一个回退代码来读取没有readfile()的文件.
我还不确定while循环中的readfile()和fread()是如何不同的,但似乎while循环会产生问题,再次,如在PHP中可靠地下载大文件中所建议的那样
希望得到一些帮助,建议,代码,指导.
谢谢阅读.
在跳出来回答之前,请仔细阅读以下内容!
问题:
我用了:
git push --mirror
Run Code Online (Sandbox Code Playgroud)
并从Github删除了1.x系列中的所有标签!
现在的情况:
这意味着数据存在于远程...
可能有效的方法:
如果我可以使用所有日志(包括有关本地已删除的“提交”的日志)克隆Github存储库,那么我的“本地”也将删除已提交。之后,可能是git reflog / rebase / reset练习。
我假设因为远程git本身就是一个完整的仓库,并且通过SHA1哈希显示提交,所以如果我可以在“远程”上运行git reflog / rebase / reset,那么理论上就可以了。
请注意,我正在寻找纯git方式。我们可以手动下载“标签”(zip),从SVN还原(我们在1.x期间使用SVN)
请让我知道您的建议/解决方法。