我需要下载网站上的所有 PDF 文件。问题是,它们没有列在任何页面上,所以我需要一些东西(程序?框架?)来抓取站点并下载文件,或者至少获取文件列表。我试过 WinHTTrack,但我无法让它工作。DownThemAll for Firefox 不会抓取多个页面或整个站点。我知道有一个解决方案,因为我不可能是第一个遇到这个问题的人。你会推荐什么?
mik*_*iku 10
从http://www.go2linux.org/tips-and-tricks-of-wget-to-download-files:
wget -r -A pdf http://www.site.com
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
16096 次 |
最近记录: |