BOT /蜘蛛陷阱的想法

Mik*_*980 5 php robots.txt bots web-crawler zombie-process

我有一个客户端,其域名似乎受到看似DDoS的严重打击.在日志中,使用随机IP的用户代理是正常的,但是他们翻阅页面的速度太快而不能成为人类.他们似乎也没有要求任何图像.我似乎无法找到任何模式,我的怀疑是它是一个Windows僵尸车队.

客户在过去曾遇到SPAM攻击问题 - 甚至不得不指向Postini的MX以获得6.7 GB /天的垃圾邮件以阻止服务器端.

我想在robots.txt禁止的目录中设置一个BOT陷阱...之前从未尝试过这样的事情,希望有人有一个创造性的想法来捕获BOT!

编辑:我已经有了很多关于捕获它的想法......当陷入陷阱时,该怎么办呢.

Ale*_*sky 6

您可以设置一个PHP脚本,其脚本被robots.txt明确禁止.在该脚本中,您可以拉出可疑机器人的源IP(通过$ _SERVER ['REMOTE_ADDR']),然后将该IP添加到数据库黑名单表中.

然后,在您的主应用程序中,您可以检查源IP,在黑名单表中查找该IP,如果找到它,则抛出403页.(也许有一条消息,例如"我们检测到来自您的IP的滥用行为,如果您认为这是错误的,请与我们联系......")

在好的方面,你会自动将坏机器人列入黑名单.在不利方面,它不是非常有效,而且可能很危险.(一个人出于好奇而无辜地检查该页面可能会导致大量用户被禁止.)

编辑:或者(或者另外,我猜)您可以相当简单地向您的应用添加GeoIP检查,并根据原籍国拒绝匹配.

  • 你可以使用某种验证码来自动化黑名单,让真人点击它. (6认同)

Asc*_*rer 0

你可以先看看ip是从哪里来的。我的猜测是它们都来自中国或尼日利亚等同一个国家,在这种情况下你可以在htaccess中设置一些东西来禁止来自这两个国家的所有IP,至于为机器人创建一个陷阱,我一点也不知道