Robots.txt没有服务

Pra*_*arg 1 django robots.txt django-urls

我正在使用Python与django框架的Web应用程序.我已经创建了一个urls.py条目来提供robots.txt文件,但由于某种原因,它似乎无法提供服务.

url(r'^robots.txt$', 'support.views.robot_file',name="robot_file"),
Run Code Online (Sandbox Code Playgroud)

此方法适用于具有非常相似的条目的sitemap.xml

url(r'^sitemap.xml', 'support.views.sitemap_file',name="sitemap_file"),
Run Code Online (Sandbox Code Playgroud)

这让我相信只服务robots.txt文件是一个问题,因为当我改变它以服务robot.txt它的工作原理.

有人可以提出一些指示,说明为什么会发生这种情况?

Spa*_*man 5

你似乎正在使用apache - 你的apache配置中可能有一些东西正在打破robots.txt - 也许是一个"Alias /robots.txt /somewhere/that/doesn't/exist.txt".