abl*_*mit 1 python webpage wget download web-crawler
我想下载一个网页列表.我知道wget可以做到这一点.但是,每隔五分钟下载一次URL并将其保存到文件夹似乎超出了wget的能力.有没有人知道java或python或Perl中的一些工具来完成任务?
提前致谢.
听起来你想用cget和cget一起使用
import time
import os
wget_command_string = "wget ..."
while true:
os.system(wget_command_string)
time.sleep(5*60)
Run Code Online (Sandbox Code Playgroud)
编写一个使用wget的bash脚本,并将其放在crontab中,每5分钟运行一次.(*/5****)
如果您需要保留所有这些网页的历史记录,请使用当前的unixtime在脚本的开头设置一个变量,并将其附加到输出文件名.