小编Jac*_*k z的帖子

Python urllib2.urlopen()很慢,需要更好的方法来阅读几个网址

正如标题所示,我正在开发一个用python编写的网站,它会多次调用urllib2模块来读取网站.然后我用BeautifulSoup解析它们.

由于我必须阅读5-10个网站,因此页面需要一段时间才能加载.

我只是想知道是否有办法一次性阅读这些网站?或者是为了让它更快,我应该在每次阅读后关闭urllib2.urlopen,还是保持打开状态?

补充:另外,如果我只是切换到php,那么从其他网站获取和Parsi g HTML和XML文件会更快吗?我只是希望它加载更快,而不是目前需要的约20秒

python concurrency http urllib2

12
推荐指数
2
解决办法
3万
查看次数

标签 统计

concurrency ×1

http ×1

python ×1

urllib2 ×1