在 UNIX 命令行或 shell 脚本上创建网页的静态副本

Mik*_*maa 1 bash curl wget web-crawler lynx

我需要在 shell 脚本中创建网页的静态副本(包括所有媒体资源,如 CSS、图像和 JS)。该副本应该可以在任何浏览器中离线打开。

某些浏览器具有类似的功能(另存为...网页,完整),它从页面创建一个文件夹,并将外部资源重写为该文件夹中的相对静态资源。

有什么方法可以在 Linux 命令行上将其自动化到给定的 URL?

tor*_*o2k 5

wget你可以这样使用:

wget --recursive --convert-links --domains=example.org http://www.example.org
Run Code Online (Sandbox Code Playgroud)

此命令将递归下载可通过 www.example.org 页面上的超链接访问的任何页面,而不是跟随 example.org 域之外的链接。

检查wget手册页以获取更多控制递归的选项。