我想下载一个网页的本地副本,并获取所有的CSS,图像,JavaScript等.
在之前的讨论中(例如,这里和这里,两者都超过两年),通常提出两个建议:wget -p和httrack.但是,这些建议都失败了.我非常感谢使用这些工具中的任何一个来完成任务; 替代品也很可爱.
选项1: wget -p
wget -p成功下载所有网页的先决条件(css,images,js).但是,当我在Web浏览器中加载本地副本时,该页面无法加载先决条件,因为尚未从Web上的版本修改这些先决条件的路径.
例如:
<link rel="stylesheet href="/stylesheets/foo.css" />需要更正指向新的相对路径foo.cssbackground-image: url(/images/bar.png)同样需要进行调整.有没有办法修改,wget -p以便路径正确?
选项2:httrack
httrack对于镜像整个网站来说,它似乎是一个很棒的工具,但我不清楚如何使用它来创建单个页面的本地副本.httrack论坛中有很多关于这个主题的讨论(例如这里),但似乎没有人有防弹解决方案.
选项3:另一个工具?
有些人建议使用付费工具,但我无法相信那里没有免费的解决方案.
非常感谢!