相关疑难解决方法(0)

下载网页的工作本地副本

我想下载一个网页的本地副本,并获取所有的CSS,图像,JavaScript等.

在之前的讨论中(例如,这里这里,两者都超过两年),通常提出两个建议:wget -phttrack.但是,这些建议都失败了.我非常感谢使用这些工具中的任何一个来完成任务; 替代品也很可爱.


选项1: wget -p

wget -p成功下载所有网页的先决条件(css,images,js).但是,当我在Web浏览器中加载本地副本时,该页面无法加载先决条件,因为尚未从Web上的版本修改这些先决条件的路径.

例如:

  • 在页面的html中,<link rel="stylesheet href="/stylesheets/foo.css" />需要更正指向新的相对路径foo.css
  • 在css文件中,background-image: url(/images/bar.png)同样需要进行调整.

有没有办法修改,wget -p以便路径正确?


选项2:httrack

httrack对于镜像整个网站来说,它似乎是一个很棒的工具,但我不清楚如何使用它来创建单个页面的本地副本.httrack论坛中有很多关于这个主题的讨论(例如这里),但似乎没有人有防弹解决方案.


选项3:另一个工具?

有些人建议使用付费工具,但我无法相信那里没有免费的解决方案.

非常感谢!

wget download offline-browsing

199
推荐指数
1
解决办法
18万
查看次数

标签 统计

download ×1

offline-browsing ×1

wget ×1