我们为每种语言都有不同的域名
然后我们为每个站点提供不同的sitemap.xml.在robots.txt中,我想为每个域添加站点地图参考.
han*_*103 30
在所有域重定向和www到非www重定向之后,我在.htaccess中使用以下解决方案.
# Rewrite URL for robots.txt
RewriteRule ^robots\.txt$ robots/%{HTTP_HOST}.txt [L]
Run Code Online (Sandbox Code Playgroud)
在根目录中创建一个名为robots的新目录.创建一个文本文件,其中包含每个域的特定机械手信息.
robots.txt只能将其自身域的站点地图通知搜索引擎。这样一来,当它抓取该域的robots.txt时,它将是唯一的荣誉。如果所有三个域都映射到同一网站并共享robots.txt,则搜索引擎将有效地找到每个站点地图。
根据Hans2103的回答,我写了这个应该可以安全地包含在几乎每个网络项目中的代码:
# URL Rewrite solution for robots.txt for multidomains on single docroot
RewriteCond %{REQUEST_FILENAME} !-d # not an existing dir
RewriteCond %{REQUEST_FILENAME} !-f # not an existing file
RewriteCond robots/%{HTTP_HOST}.txt -f # and the specific robots file exists
RewriteRule ^robots\.txt$ robots/%{HTTP_HOST}.txt [L]
Run Code Online (Sandbox Code Playgroud)
如果存在的话,此重写条件应该只提供正常服务robots.txt,并且仅查找robots/具有指定文件的目录robots/<domain.tld>.txt。
| 归档时间: |
|
| 查看次数: |
11986 次 |
| 最近记录: |