如何使用wget或其他工具在Linux中竞争性下载网站的子域?

luy*_*619 5 linux wget download web-crawler

我想下载http://source.yeeyan.org的所有文章。它有很多页面。例如,http://source.yeeyan.org/? page =22202 那么如何在Linux中使用wget或其他工具将其下载下来?目前,我使用以下参数,但是它不起作用。

wget --recursive --no-clobber --page-conditions --html-extension --convert-links --restrict-file-names = windows --domains yeeyan.org --no-parent source.yeeyan.org

sca*_*cai 4

作为 wget 的替代品,还有httrack,其唯一目的是复制网站,因此可能更适合您。它还有一个 GUI。