And*_*dré 1 php scraper
我必须做一个废弃大约100个URL的Scraper,Scraper必须在CronJob调用的PHP CLI中运行.我完全迷失了如何管理这个...对于我想要创建一个新文件的每个URL,只是为了在必须更新特定URL的代码时弄清楚.
这可能是个不错的选择吗?然后,可以从一个CronJob调用所有这些文件?
TJH*_*vel 5
您可以通过将这些网址存储在数据库或文本文件中来轻松管理这100个网址.然后只需加载所有网址,循环遍历它们并调用你的scrape函数.
归档时间:
14 年,11 月 前
查看次数:
164 次
最近记录: