Mik*_*maa 1 bash curl wget web-crawler lynx
我需要在 shell 脚本中创建网页的静态副本(包括所有媒体资源,如 CSS、图像和 JS)。该副本应该可以在任何浏览器中离线打开。
某些浏览器具有类似的功能(另存为...网页,完整),它从页面创建一个文件夹,并将外部资源重写为该文件夹中的相对静态资源。
有什么方法可以在 Linux 命令行上将其自动化到给定的 URL?
wget你可以这样使用:
wget --recursive --convert-links --domains=example.org http://www.example.org
Run Code Online (Sandbox Code Playgroud)
此命令将递归下载可通过 www.example.org 页面上的超链接访问的任何页面,而不是跟随 example.org 域之外的链接。
检查wget手册页以获取更多控制递归的选项。
| 归档时间: |
|
| 查看次数: |
4423 次 |
| 最近记录: |