在Scrapy中使用经过身份验证的会话进行爬网

Her*_*aaf 31 python scrapy

在我之前的问题中,我对我的问题并不是非常具体(使用Scrapy进行经过身份验证的会话),希望能够从更一般的答案中推断出解决方案.我应该更喜欢使用这个词crawling.

所以,到目前为止我的代码是:

class MySpider(CrawlSpider):
    name = 'myspider'
    allowed_domains = ['domain.com']
    start_urls = ['http://www.domain.com/login/']

    rules = (
        Rule(SgmlLinkExtractor(allow=r'-\w+.html$'), callback='parse_item', follow=True),
    )

    def parse(self, response):
        hxs = HtmlXPathSelector(response)
        if not "Hi Herman" in response.body:
            return self.login(response)
        else:
            return self.parse_item(response)

    def login(self, response):
        return [FormRequest.from_response(response,
                    formdata={'name': 'herman', 'password': 'password'},
                    callback=self.parse)]


    def parse_item(self, response):
        i['url'] = response.url

        # ... do more things

        return i
Run Code Online (Sandbox Code Playgroud)

如您所见,我访问的第一页是登录页面.如果我还没有通过身份验证(在parse函数中),我会调用我的自定义login函数,该函数会发布到登录表单.然后,如果我验证,我想继续爬行.

问题是parse我试图覆盖的功能以便登录,现在不再进行必要的调用来刮掉任何其他页面(我假设).而且我不确定如何保存我创建的项目.

以前有人做过这样的事吗?(验证,然后爬行,使用a CrawlSpider)任何帮助将不胜感激.

Aco*_*orn 56

不要覆盖以下parse功能CrawlSpider:

使用a时CrawlSpider,不应覆盖该parse功能.这里的CrawlSpider文档中有一个警告:http://doc.scrapy.org/en/0.14/topics/spiders.html#scrapy.contrib.spiders.Rule

这是因为具有CrawlSpider,parse(任何请求的默认回调)发送给由被处理的响应Rule秒.


登录前登录:

为了在蜘蛛开始爬行之前进行某种初始化,您可以使用InitSpider(继承自a CrawlSpider)并覆盖该init_request函数.当蜘蛛初始化时以及开始爬行之前,将调用此函数.

为了让蜘蛛开始爬行,你需要打电话self.initialized.

您可以在此处阅读对此负责的代码(它具有有用的文档字符串).


一个例子:

from scrapy.contrib.spiders.init import InitSpider
from scrapy.http import Request, FormRequest
from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor
from scrapy.contrib.spiders import Rule

class MySpider(InitSpider):
    name = 'myspider'
    allowed_domains = ['example.com']
    login_page = 'http://www.example.com/login'
    start_urls = ['http://www.example.com/useful_page/',
                  'http://www.example.com/another_useful_page/']

    rules = (
        Rule(SgmlLinkExtractor(allow=r'-\w+.html$'),
             callback='parse_item', follow=True),
    )

    def init_request(self):
        """This function is called before crawling starts."""
        return Request(url=self.login_page, callback=self.login)

    def login(self, response):
        """Generate a login request."""
        return FormRequest.from_response(response,
                    formdata={'name': 'herman', 'password': 'password'},
                    callback=self.check_login_response)

    def check_login_response(self, response):
        """Check the response returned by a login request to see if we are
        successfully logged in.
        """
        if "Hi Herman" in response.body:
            self.log("Successfully logged in. Let's start crawling!")
            # Now the crawling can begin..
            return self.initialized()
        else:
            self.log("Bad times :(")
            # Something went wrong, we couldn't log in, so nothing happens.

    def parse_item(self, response):

        # Scrape data from page
Run Code Online (Sandbox Code Playgroud)

保存物品:

您的Spider返回的项目将传递给Pipeline,后者负责执行您想要对数据执行的任何操作.我建议你阅读文档:http://doc.scrapy.org/en/0.14/topics/item-pipeline.html

如果您对Items 有任何问题/疑问,请不要犹豫,提出新问题,我会尽力帮助您.

  • InitSpider不再继承CrawlSpider https://github.com/scrapy/scrapy/blob/master/scrapy/contrib/spiders/init.py (6认同)
  • 谢谢@Mikeumus ...为那些只想复制并粘贴xD的人提供了固定答案 (2认同)