如何使用 wget 获取公共网站的图像?这不是一个很大的网站:它有大约 40 页,每页大约有三张图片。
我想避免:
有任何想法吗?
小智 7
您可以使用 wget 并告诉它只下载图像文件或使用http://www.downthemall.net/
来自http://www.delorie.com/gnu/docs/wget/wget_31.html
您想从 HTTP 服务器上的目录下载所有 GIF。您尝试过`wget http://www.server.com/dir/ *.gif',但没有奏效,因为HTTP 检索不支持globbing。在这种情况下,请使用:
Run Code Online (Sandbox Code Playgroud)wget -r -l1 --no-parent -A.gif http://www.server.com/dir/
比较冗长,但效果是一样的。-r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.
--no-parent' 意味着忽略对父目录的引用(请参阅第 4.3 节基于目录的限制),并且-A.gif' means to download only the GIF files.
-A "*.gif"' 也会起作用。