我想从一个 URL 下载一个网站,在本地查看它,更准确地说:
pdf和 的直接链接文件zip。我对所有基于 linux 的工具持开放态度(macports支持会很好),wget但到目前为止对我来说并没有奏效。
编辑: wget -E -H -k -K -p接近我想要的,但如何包含 pdf 和 zip 文件?(来源: Stackoverflow)
小智 1
你尝试过wget -rk -l 1 <sitename>或者类似吗?这应该在将链接转换为相对路径的同时递归地获取内容。最终结果可能是比您想要的更多的 .html 文件,但是您可以删除除 index.html 之外的所有文件,您应该能够正常浏览它。
| 归档时间: |
|
| 查看次数: |
8888 次 |
| 最近记录: |