相关疑难解决方法(0)

在scrapy中运行多个蜘蛛

  1. 例如,如果我有两个包含不同HTML的URL,则在scrapy中.现在我想为一个人编写两个单独的蜘蛛,并且想要同时运行两个蜘蛛.在scrapy中,可以同时运行多个蜘蛛.

  2. 在编写多个蜘蛛后的scrapy中,我们如何安排它们每6小时运行一次(可能就像cron作业一样)

我不知道上面的内容,你能用一个例子建议我如何执行上述事情.

提前致谢.

python web-crawler scrapy

8
推荐指数
2
解决办法
5532
查看次数

标签 统计

python ×1

scrapy ×1

web-crawler ×1