ras*_*her 15 firefox download wget browser-addons
我有一个网站,我想下载该网站内的所有页面/链接。我想wget -r在这个 URL 上做一个。没有任何链接位于此特定目录的“外部”,因此我不担心下载整个 Internet。
事实证明,我想要的页面位于网站受密码保护的部分后面。虽然我可以使用 wget 手动执行该 cookie 协商,但对我来说,只需从浏览器“登录”并使用一些 firefox 插件递归下载所有内容会容易得多。
是否有扩展或什么可以让我这样做?许多扩展专注于从页面获取媒体/图片(呵呵。呵呵。)但我对所有内容感兴趣 - HTML 和所有内容。
建议?
谢谢!
编辑
DownThemAll 似乎是一个很酷的建议。它可以进行递归下载吗?比如,下载页面上的所有链接,然后下载每个页面中包含的所有链接,等等?所以我基本上通过以下链接镜像整个目录树?有点像-r的选项wget?
SpiderZilla旨在做到这一点 - 但是,它有点旧(2006)。
它基于HTTrack 网站复印机。
它具有适用于所有平台的更新版本。
还有另一个较旧的插件可以让您插入 ' wget' 本身(除其他外)。
但是,我也觉得 DownThemAll 可能是一个不错的选择。
如果您知道要镜像的内容,那么选择正确的链接应该不是问题。
而且,您可以随时勾选“全部”复选框。
因此,如果您想坚持使用浏览器,请为DownThemAll +1 。
并且,如果您想要一个独立的工具(并且wget不方便),请使用HTTrack。
更新:您可能还想查看 HTTrack 在这个悬赏问题上的投票,
我如何下载整个网站。
您可以使用wget -r来自浏览器的 cookie,授权后提取。
Firefox 在 Web Developer Tools 的 Network 选项卡中页面请求的上下文菜单中有“Copy as cURL”选项,热键 Ctrl+Shift+Q(打开工具后可能需要重新加载页面):

-H用 wget替换 curl 的标头标志--header,您就拥有了所有需要的标头,包括 cookie,以继续使用 wget 进行浏览器会话。
| 归档时间: |
|
| 查看次数: |
36728 次 |
| 最近记录: |