仅仅因为软件是自动化的并不意味着它会遵守你的robots.txt.有哪些方法可用于检测何时有人抓取您的网站?假设您的网站有100个页面,并且值得抓取或DDOS.
这是一个愚蠢的想法,我可能不起作用:给每个用户一个具有唯一值的cookie,并使用cookie知道有人在做第二个/第三个/等等请求.这可能不起作用,因为爬虫可能不接受cookie,因此在这个方案中,机器人看起来像每个请求的新用户.
有没有人有更好的想法?
| 归档时间: |
|
| 查看次数: |
488 次 |
| 最近记录: |