例如,如果我有两个包含不同HTML的URL,则在scrapy中.现在我想为一个人编写两个单独的蜘蛛,并且想要同时运行两个蜘蛛.在scrapy中,可以同时运行多个蜘蛛.
在编写多个蜘蛛后的scrapy中,我们如何安排它们每6小时运行一次(可能就像cron作业一样)
我不知道上面的内容,你能用一个例子建议我如何执行上述事情.
提前致谢.
python web-crawler scrapy
python ×1
scrapy ×1
web-crawler ×1