Mik*_*980 5 php robots.txt bots web-crawler zombie-process
我有一个客户端,其域名似乎受到看似DDoS的严重打击.在日志中,使用随机IP的用户代理是正常的,但是他们翻阅页面的速度太快而不能成为人类.他们似乎也没有要求任何图像.我似乎无法找到任何模式,我的怀疑是它是一个Windows僵尸车队.
客户在过去曾遇到SPAM攻击问题 - 甚至不得不指向Postini的MX以获得6.7 GB /天的垃圾邮件以阻止服务器端.
我想在robots.txt禁止的目录中设置一个BOT陷阱...之前从未尝试过这样的事情,希望有人有一个创造性的想法来捕获BOT!
编辑:我已经有了很多关于捕获它的想法......当陷入陷阱时,该怎么办呢.
您可以设置一个PHP脚本,其脚本被robots.txt明确禁止.在该脚本中,您可以拉出可疑机器人的源IP(通过$ _SERVER ['REMOTE_ADDR']),然后将该IP添加到数据库黑名单表中.
然后,在您的主应用程序中,您可以检查源IP,在黑名单表中查找该IP,如果找到它,则抛出403页.(也许有一条消息,例如"我们检测到来自您的IP的滥用行为,如果您认为这是错误的,请与我们联系......")
在好的方面,你会自动将坏机器人列入黑名单.在不利方面,它不是非常有效,而且可能很危险.(一个人出于好奇而无辜地检查该页面可能会导致大量用户被禁止.)
编辑:或者(或者另外,我猜)您可以相当简单地向您的应用添加GeoIP检查,并根据原籍国拒绝匹配.
你可以先看看ip是从哪里来的。我的猜测是它们都来自中国或尼日利亚等同一个国家,在这种情况下你可以在htaccess中设置一些东西来禁止来自这两个国家的所有IP,至于为机器人创建一个陷阱,我一点也不知道
| 归档时间: | 
 | 
| 查看次数: | 3970 次 | 
| 最近记录: |