等效于 Firefox 的递归下载(`wget -r`)?

ras*_*her 15 firefox download wget browser-addons

我有一个网站,我想下载该网站内的所有页面/链接。我想wget -r在这个 URL 上做一个。没有任何链接位于此特定目录的“外部”,因此我不担心下载整个 Internet。

事实证明,我想要的页面位于网站受密码保护的部分后面。虽然我可以使用 wget 手动执行该 cookie 协商,但对我来说,只需从浏览器“登录”并使用一些 firefox 插件递归下载所有内容会容易得多。

是否有扩展或什么可以让我这样做?许多扩展专注于从页面获取媒体/图片(呵呵。呵呵。)但我对所有内容感兴趣 - HTML 和所有内容。

建议?

谢谢!

编辑

DownThemAll 似乎是一个很酷的建议。它可以进行递归下载吗?比如,下载页面上的所有链接,然后下载每个页面中包含的所有链接,等等?所以我基本上通过以下链接镜像整个目录树?有点像-r的选项wget

小智 7

DownThemAll 不进行递归下载。它只从当前页面抓取链接。仅下载链接 URL 的 HTML 页面。不下载链接页面的图像和媒体。


nik*_*nik 6

SpiderZilla旨在做到这一点 - 但是,它有点旧(2006)。
它基于HTTrack 网站复印机
它具有适用于所有平台的更新版本

还有另一个较旧的插件可以让您插入 ' wget' 本身(除其他外)。

但是,我也觉得 DownThemAll 可能是一个不错的选择。
如果您知道要镜像的内容,那么选择正确的链接应该不是问题。
而且,您可以随时勾选“全部”复选框。

因此,如果您想坚持使用浏览器,请为DownThemAll +1 。
并且,如果您想要一个独立的工具(并且wget不方便),请使用HTTrack

更新:您可能还想查看 HTTrack 在这个悬赏问题上的投票,
我如何下载整个网站


use*_*ser 5

您可以使用wget -r来自浏览器的 cookie,授权后提取。

Firefox 在 Web Developer Tools 的 Network 选项卡中页面请求的上下文菜单中有“Copy as cURL”选项,热键 Ctrl+Shift+Q(打开工具后可能需要重新加载页面): 截屏

-H用 wget替换 curl 的标头标志--header,您就拥有了所有需要的标头,包括 cookie,以继续使用 wget 进行浏览器会话。