小编Chr*_*ves的帖子

获取robots.txt以阻止在"?"之后访问网站上的网址 字符,但索引页本身

我有一个小的magento站点,其中包含页面URL,例如:

http://www.mysite.com/contact-us.html
http://www.mysite.com/customer/account/login/
Run Code Online (Sandbox Code Playgroud)

但是我也有包含过滤器(例如价格和颜色)的页面,一旦这样的例子是:

http://www.mysite.com/products.html?price=1%2C1000
Run Code Online (Sandbox Code Playgroud)

要么

http://www.mysite.com/products/chairs.html?price=1%2C1000
Run Code Online (Sandbox Code Playgroud)

问题是,当谷歌机器人和其他搜索引擎机器人搜索网站时,它基本上停止了,因为它们陷入了所有"过滤器链接".

所以,在robots.txt文件中如何配置,例如:

用户代理:*

允许:

不允许:

允许所有页面如:

http://www.mysite.com/contact-us.html
http://www.mysite.com/customer/account/login/
Run Code Online (Sandbox Code Playgroud)

获得索引,但在的情况下,http://www.mysite.com/products/chairs.html?price=1%2C1000指数products.html但之后忽略所有内容的"?" 同为
http://www.mysite.com/products/chairs.html?price=1%2C1000

我也不想指定每个页面,反过来只是一个规则来忽略?主页面之后的所有内容.

html seo robots.txt

5
推荐指数
1
解决办法
4430
查看次数

标签 统计

html ×1

robots.txt ×1

seo ×1