Anu*_*har 5 python multithreading web-crawler multiprocessing scrapy
我要下载并保存在数据库中的列表中有一个大于100,000个url(不同的域),以便进行进一步处理和修改。
使用scrapy代替python的多处理/多线程处理是否明智?如果是,我如何编写独立脚本来执行相同操作?
另外,请随意提出其他令人敬畏的方法。
| 归档时间: |
|
| 查看次数: |
846 次 |
| 最近记录: |