我可以使用wget检查,但不能下载

mik*_*628 73 wget

我可以使用wget检查404而不是实际下载资源吗?如果是这样的话?谢谢

Sha*_*kka 105

完全有这个命令行参数--spider.在此模式下,wget不下载文件,如果找到资源,则返回值为零,如果未找到则返回非零值.试试这个(在你最喜欢的shell中):

wget -q --spider address
echo $?
Run Code Online (Sandbox Code Playgroud)

或者如果你想要完整的输出,请保持-q关闭,这样就可以了wget --spider address.-nv显示一些输出,但没有默认值.

  • 注意`wget --spider`发送HEAD请求,而不是GET. (27认同)
  • @hammer,我不确定你可能使用的是什么版本,但是使用1.14,`wget --spider`执行HEAD,如果成功,则使用GET进行相同的URL.因此,使用递归选项,它对于为服务器端网站构建缓存很有用. (3认同)

3ro*_*nco 24

如果你想通过$安静地检查?没有grep'ing wget输出的麻烦你可以使用:

wget -q "http://blah.meh.com/my/path" -O /dev/null
Run Code Online (Sandbox Code Playgroud)

甚至可以在只有一个路径的URL上工作,但缺点是确实下载了某些内容,因此在检查大文件是否存在时不建议这样做.


Par*_*hit 14

您可以使用以下选项检查文件:

wget --delete-after URL


Joh*_*ger 11

很容易.

wget --spider www.bluespark.co.nz
Run Code Online (Sandbox Code Playgroud)

那会给你

Resolving www.bluespark.co.nz... 210.48.79.121
Connecting to www.bluespark.co.nz[210.48.79.121]:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
200 OK
Run Code Online (Sandbox Code Playgroud)