在Scrapy项目中使用多个蜘蛛

Hos*_*ein 9 scrapy

我想知道是否可以在同一个项目中同时使用多个蜘蛛.其实我需要2只蜘蛛.第一个收集第二个蜘蛛应该刮的链接.他们都在同一个网站上工作,所以域名是相似的.这可能吗?如果是,你能举个例子吗?谢谢

and*_*ers 12

也许这就是你要找的东西:

def parse(self, response):
    # parse the links (aka your first spider)
    for link in hxs('//XPATH'):
        yield Request(link.extract(), callback=self.parse_link)

def parse_link(self, response):
    # continue parsing (aka your second spider)
Run Code Online (Sandbox Code Playgroud)

希望这对你有所帮助:)

  • 这实际上并没有回答"多蜘蛛"的问题.这只是一个常见的黑客,取代了多个蜘蛛的使用.如果有更完整的答案,那就好了. (3认同)