正如标题所示,我正在开发一个用python编写的网站,它会多次调用urllib2模块来读取网站.然后我用BeautifulSoup解析它们.
由于我必须阅读5-10个网站,因此页面需要一段时间才能加载.
我只是想知道是否有办法一次性阅读这些网站?或者是为了让它更快,我应该在每次阅读后关闭urllib2.urlopen,还是保持打开状态?
补充:另外,如果我只是切换到php,那么从其他网站获取和Parsi g HTML和XML文件会更快吗?我只是希望它加载更快,而不是目前需要的约20秒
python concurrency http urllib2
concurrency ×1
http ×1
python ×1
urllib2 ×1