从网站的单个目录下载所有图像

bry*_*mon 7 javascript php linux perl image

我需要从一个网站获取所有图像,这些图像都包含在一个文件夹中.例如,(site.com/images/.*).这可能吗?如果是这样,最好的方法是什么?

ric*_*h97 9

你有FTP访问权限吗?

你有shell访问权限吗?

使用Linux它非常简单.关于窗户不确定.

wget -H -r --level=1 -k -p http://example.com/path/to/images
Run Code Online (Sandbox Code Playgroud)

编辑:刚找到wget for windows.

编辑2:我刚看到PHP标签,为了创建一个可以一次性下载所有图像的PHP脚本,您必须创建一个zip(或等效的)存档并使用正确的标头发送.这里是如何在php中压缩文件夹,只提取该文件夹中的图像并不难,只需编辑给出的代码,例如:

foreach ($iterator as $key=>$value) {
    if (!is_dir($key)) {
        $file = basename($key);
        list($name, $ext) = explode('.', $key);
        switch ($ext) {
            case "png":
            case "gif":
            case "jpg":
                $zip->addFile(realpath($key), $key) or die ("ERROR: Could not add file: $key");
            break;
        }
    }
}
Run Code Online (Sandbox Code Playgroud)


Tas*_*han 8

看看HTTrack软件吧.它可以下载整个网站.提供网站地址site.com/images/,它将下载此目录中的所有内容.(如果目录访问不受所有者限制)


Ree*_*ore 5

如果站点允许索引,您需要做的就是 wget -r --no-parent http://site.com/images/