我需要一个程序,我可以像下面这样提供一些 URL(粘贴或在文件中),然后它必须能够抓取这些链接并保存某种类型的文件,例如图像。我尝试了一些蜘蛛,但没有运气。
目前,下载所有内容的唯一方法是打开每个链接,然后我使用“DownThemAll!” Firefox 插件,它选择页面上的所有图像(或任何文件类型)并下载它们。这可以一页一页地工作,但我需要类似的东西来处理整个 URL 列表。
有没有人有什么建议??非常感谢。
附注。我还可以补充一点,它是一个相当容易使用的东西,它有一个不错的用户界面并且不从命令行运行。谢谢
http://www.someUrl.com/fhg/xbox/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/allison_gf/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/cookin/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/blackjacket/1/index.php?ccbill=123456
Run Code Online (Sandbox Code Playgroud)