Robots.txt:这个通配符规则有效吗?

Bar*_*tek 7 seo robots.txt

简单的问题.我想补充一下:

Disallow */*details-print/
Run Code Online (Sandbox Code Playgroud)

基本上,/foo/bar/dynamic-details-print在这个例子中以--- foo和bar 形式的阻塞规则也可以是完全动态的.

我认为这很简单,但是在www.robotstxt.org上有这样的信息:

另请注意,User-agent或Disallow行不支持globbing和正则表达式.User-agent字段中的'*'是一个特殊值,意思是"任何机器人".具体来说,你不能拥有像"User-agent:bot ","Disallow:/ tmp/*"或"Disallow:*.gif"这样的行.

所以我们不能这样做?搜索引擎是否遵守它?但是,有Quora.com的robots.txt文件:

Disallow: /ajax/
Disallow: /*/log
Disallow: /*/rss
Disallow: /*_POST
Run Code Online (Sandbox Code Playgroud)

那么,谁是对的 - 或者我是否误解了robotstxt.org上的文字?

谢谢!

Jim*_*hel 9

答案是,"这取决于".在robotstxt.org中定义的robots.txt"standard"是机器人应该支持的最小值.Googlebot,MSNbot和Yahoo Slurp支持一些常见的扩展,并且真的不知道其他机器人支持什么.有人说他们支持什么,有些人不支持.

一般来说,您可以期待主要的搜索引擎机器人支持您编写的通配符,并且您拥有的通配符看起来可以正常工作.最好的选择是运行它通过一个或多个的这些 robots.txt的验证或使用谷歌的网站管理员工具来检查它.