如何从 URL 递归下载网页及其链接内容?

Zig*_*gnd 5 download wget recursive html

我想使用wget递归下载网页。递归我的意思是它可能指向的所有其他文件也应该下载。原因是我希望能够合理地离线查看其内容。

我需要下载的网页也链接到同一网站上的其他页面,我希望我也可以下载它们。

可以这样做wget吗?有什么标志吗?

gol*_*cks 8

尝试:

wget -r -np -k -p http://www.site.com/dir/page.html
Run Code Online (Sandbox Code Playgroud)

参数(参见man wget)是:

  • r递归到链接,也检索这些页面(默认最大深度为 5,可以用 设置-l)。
  • np永远不要进入父目录(即,不要遵循“主页”链接并镜像整个站点;这将阻止ccc在您的示例中进行上述操作)。
  • k 转换相对于本地副本的链接。
  • p获取页面必需品,如样式表(这是np规则的一个例外)。

如果我没记错的话,wget 将创建一个以域命名的目录并将所有内容放在那里,但以防万一从空的 PWD 尝试它。