浏览器不支持框架如何自动获取框架内容+无法直接访问框架

ber*_*436 4 python mechanize beautifulsoup html-parsing web-scraping

我想从像URL自动下载PDF文件使联合国决议的库。

如果我使用漂亮的汤或机械化打开该 URL,我会得到“您的浏览器不支持框架”——如果我在 chrome 开发工具中使用副本作为 curl 功能,我会得到同样的结果。

使用机械化或美丽汤时“您的浏览器不支持框架”的标准建议是跟踪每个单独框架的来源并加载该框架。但是如果我这样做,我会收到一条错误消息,指出该页面未经授权

我该如何继续?我想我可以在僵尸或幻影中尝试这个,但我不想使用这些工具,因为我对它们不太熟悉。

ale*_*cxe 5

好的,这是一个与requestsand 相关的有趣任务BeautifulSoup

有一组对un.orgdaccess-ods.un.org很重要的底层调用并设置了相关的 cookie。这就是为什么您需要requests.Session()在访问 pdf 之前维护和访问多个 url。

这是完整的代码:

import re
from urlparse import urljoin

from bs4 import BeautifulSoup
import requests


BASE_URL = 'http://www.un.org/en/ga/search/'
URL = "http://www.un.org/en/ga/search/view_doc.asp?symbol=A/RES/68/278"
BASE_ACCESS_URL = 'http://daccess-ods.un.org'

# start session
session = requests.Session()
response = session.get(URL, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36'})

# get frame links
soup = BeautifulSoup(response.text)
frames = soup.find_all('frame')
header_link, document_link = [urljoin(BASE_URL, frame.get('src')) for frame in frames]

# get header
session.get(header_link, headers={'Referer': URL})

# get document html url
response = session.get(document_link, headers={'Referer': URL})
soup = BeautifulSoup(response.text)

content = soup.find('meta', content=re.compile('URL='))['content']
document_html_link = re.search('URL=(.*)', content).group(1)
document_html_link = urljoin(BASE_ACCESS_URL, document_html_link)

# follow html link and get the pdf link
response = session.get(document_html_link)
soup = BeautifulSoup(response.text)

# get the real document link
content = soup.find('meta', content=re.compile('URL='))['content']
document_link = re.search('URL=(.*)', content).group(1)
document_link = urljoin(BASE_ACCESS_URL, document_link)
print document_link

# follow the frame link with login and password first - would set the important cookie
auth_link = soup.find('frame', {'name': 'footer'})['src']
session.get(auth_link)

# download file
with open('document.pdf', 'wb') as handle:
    response = session.get(document_link, stream=True)

    for block in response.iter_content(1024):
        if not block:
            break

        handle.write(block)
Run Code Online (Sandbox Code Playgroud)

您可能应该将单独的代码块提取到函数中,以使其更具可读性和可重用性。

仅供参考,所有这一切都可以更容易通过的帮助下真正的浏览器中完成seleniumGhost.py

希望有帮助。