luy*_*619 5 linux wget download web-crawler
我想下载http://source.yeeyan.org的所有文章。它有很多页面。例如,http://source.yeeyan.org/? page =22202 那么如何在Linux中使用wget或其他工具将其下载下来?目前,我使用以下参数,但是它不起作用。
wget --recursive --no-clobber --page-conditions --html-extension --convert-links --restrict-file-names = windows --domains yeeyan.org --no-parent source.yeeyan.org