无法导入Scrapy的设置模块或其scrapy.cfg

pem*_*ahl 9 python django environment-variables scrapy

这是一个相当冗长的帖子,但经过广泛的研究后,我找不到解决方案.我对OSX 10.8混合Django的1.4.1/Scrapy 0.14.4项目,我控制Scrapy与Django项目的manage.py命令,描述在这里.例如,打电话

python manage.py scrapy crawl example_spider 
Run Code Online (Sandbox Code Playgroud)

工作没有问题.现在,我正处于设置scrapydWeb服务以部署我的蜘蛛的地步.但是,当我执行时

python manage.py scrapy server
Run Code Online (Sandbox Code Playgroud)

然后我得到这个例外:

scrapy.exceptions.NotConfigured: Unable to find scrapy.cfg file to infer project data dir
Run Code Online (Sandbox Code Playgroud)

所以,显然Scrapy无法找到该scrapy.cfg文件,因为我没有在Scrapy项目中执行它.然而,其他Scrapy命令工作,因为在我的Django项目中settings.py我做了以下事情:

sys.path.append('/absolute/path/to/my/Scrapy/project')
os.environ['SCRAPY_SETTINGS_MODULE'] = 'my_scrapy_project_name.settings'
Run Code Online (Sandbox Code Playgroud)

问题1:为什么Scrapy无法scrapy.cfg在我的设置中检测到该文件?我该如何解决这个问题?


由于上面提到的东西不起作用,我试图scrapyd只使用scrapy我的Scrapy项目目录中的命令来运行服务器.scrapy server从我的Scrapy项目的顶级目录执行产生以下内容:

$ scrapy server
UserWarning: Cannot import scrapy settings module my_scrapy_project_name.settings
warnings.warn("Cannot import scrapy settings module %s" % scrapy_module)
2012-08-31 21:58:31+0200 [-] Log opened.
2012-08-31 21:58:32+0200 [-] Scrapyd web console available at http://localhost:6800/
2012-08-31 21:58:32+0200 [Launcher] Scrapyd started: max_proc=8, runner='scrapyd.runner'
2012-08-31 21:58:32+0200 [-] Site starting on 6800
2012-08-31 21:58:32+0200 [-] Starting factory <twisted.web.server.Site instance at 0x101dd3d88> 
Run Code Online (Sandbox Code Playgroud)

服务器正在运行没有问题,但是,settings.py找不到我的Scrapy项目的文件,因为不再设置相应的环境变量.这就是我在终端中执行以下操作的原因:

export PYTHONPATH=/absolute/path/to/my/Scrapy/project
export SCRAPY_SETTINGS_MODULE=my_scrapy_project_name.settings
Run Code Online (Sandbox Code Playgroud)

不幸的是,这两个命令没有任何效果.每当我执行scrapy server(或任何其他Scrapy命令)时,我都会收到Scrapy无法导入其项目设置模块的消息.

我目前scrapy.cfg只有以下内容:

[settings]
default = my_scrapy_project_name.settings

[deploy:scrapyd]
url = http://localhost:6800/
project = my_scrapy_project_name
Run Code Online (Sandbox Code Playgroud)

当我尝试将我的Scrapy项目部署到scrapyd服务器时,它似乎首先工作,但后来我意识到没有上传任何蜘蛛,可能是因为无法检测到设置文件.这是控制台输出:

$ scrapy deploy scrapyd -p my_scrapy_project_name
/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/site-
packages/scrapy/utils/project.py:17: UserWarning: Cannot import scrapy
settings module my_scrapy_project_name.settings
 warnings.warn("Cannot import scrapy settings module %s" %
scrapy_module)
Building egg of event_crawler-1346531706
'build/lib' does not exist -- can't clean it
'build/bdist.macosx-10.6-intel' does not exist -- can't clean it
'build/scripts-2.7' does not exist -- can't clean it
zip_safe flag not set; analyzing archive contents...
Deploying event_crawler-1346531706 to http://localhost:6800/addversion.json
Server response (200):
{"status": "ok", "project": "my_scrapy_project_name", "version": "1346531706", "spiders": 0}
Run Code Online (Sandbox Code Playgroud)

问题2:如何正确导出上面的路径和环境变量,以便此警告消失?

问题3:由于scrapyd服务器似乎工作正常,我怎样才能正确上传我的蜘蛛?

提前谢谢了!

Mu *_*ind 3

如果您查看引发此异常的代码分支及其调用的函数的定义closest_scrapy_cfg,则 scrapy 查找 scrapy.cfg 的唯一位置是在您运行命令的目录和任何父目录中。您可以os.chdir在manage.py中运行,或者将scrapy.cfg移动到您运行的目录。