我想从一个 URL 下载一个网站,在本地查看它,更准确地说:
pdf
和 的直接链接文件zip
。我对所有基于 linux 的工具持开放态度(macports
支持会很好),wget
但到目前为止对我来说并没有奏效。
编辑: wget -E -H -k -K -p
接近我想要的,但如何包含 pdf 和 zip 文件?(来源: Stackoverflow)
小智 1
你尝试过wget -rk -l 1 <sitename>
或者类似吗?这应该在将链接转换为相对路径的同时递归地获取内容。最终结果可能是比您想要的更多的 .html 文件,但是您可以删除除 index.html 之外的所有文件,您应该能够正常浏览它。