相关疑难解决方法(0)

蟒蛇| HTTP - 如何在下载前检查文件大小

我正在使用 urllib3 爬网。示例代码:

from urllib3 import PoolManager

pool = PoolManager()
response = pool.request("GET", url)
Run Code Online (Sandbox Code Playgroud)

问题是我可能会偶然发现 url 是一个非常大的文件的下载,我并不介意下载它。

我发现了这个问题 - Link - 它建议使用urlliband urlopen。我不想两次联系服务器。

我想将文件大小限制为 25MB。有没有办法做到这一点urllib3

python http urllib urllib2 urllib3

3
推荐指数
1
解决办法
3078
查看次数

urllib2.urlopen()实际上是否获取页面?

我在使用urllib2.urlopen()时只是为了读取头文件,还是实际带回整个网页?

IE是否真的在urlopen调用或read()调用上获取HTML页面?

handle = urllib2.urlopen(url)
html = handle.read()
Run Code Online (Sandbox Code Playgroud)

我问的原因是这个工作流程......

  • 我有一个网址列表(其中一些有短网址服务)
  • 如果我之前没有看过该网址,我只想阅读该网页
  • 我需要调用urlopen()并使用geturl()来获取链接所在的最终页面(在302重定向之后),所以我知道我是否已经抓取它了.
  • 如果我已经解析了那个页面,我不想承担必须抓取html的开销.

谢谢!

python urllib2

2
推荐指数
1
解决办法
4367
查看次数

如何从链接获取文件大小而不用在 python 中下载它?

我有一个链接列表,我试图获取其大小以确定每个文件需要多少计算资源。是否可以通过 get 请求或类似的东西来获取文件大小?

以下是其中一个链接的示例:https : //sra-download.ncbi.nlm.nih.gov/traces/sra46/SRR/005150/SRR5273887

谢谢

python get

2
推荐指数
2
解决办法
4082
查看次数

标签 统计

python ×3

urllib2 ×2

get ×1

http ×1

urllib ×1

urllib3 ×1