如何下载网站中的所有 HTML 页面

Man*_*ars 0 browser download http

可能重复:
如何下载整个网站?

如果有一个网站www.example.com,不同路径下有很多同名的静态页面。

有没有办法下载所有页面以离线查看?

例如:

www.example.com/a/x.page
www.example.com/b/x,page
www.example.com/b/c/x,page
Run Code Online (Sandbox Code Playgroud)

我想这样做是因为我无法在家中访问互联网,只能在我们公司的办公室访问。

小智 6

我使用过http://www.httrack.com/,它是一款出色的工具,可以获取动态站点并将其下载到本地目录,以便您可以离线浏览。


And*_*ert 6

如果您已wget安装,则它是单行的:

wget -mk -w 20 http://www.example.com/
Run Code Online (Sandbox Code Playgroud)

GNU WGet

适用于 Windows 的 WGet