wget 是一个非常有用的工具,可以在互联网上快速下载东西,但我可以用它从托管站点下载,比如 FreakShare、IFile.it、Depositfiles、Uploaded、Rapidshare 吗?如果是这样,我该怎么做?
我想下载一些字幕文件,以 rar 文件形式存储在http://subs.sab.bz/该站点为其新版本提供 rss 提要。不幸的是,提供的链接将打开一个下载页面,但不会获取文件。
下载页面中间有一个按钮,点击它会触发下载所需的rar文件。无论如何,如果我右键单击并复制链接,然后尝试打开它,浏览器将自行打开下载页面,但不会下载文件。当我尝试在 wget 和 curl 中使用文件的下载链接时,会下载一个 php 文件。我读到在这种情况下,服务器端脚本用于将正确的链接传递给客户端计算机。
所以,我正在寻找一种方法来强制 wget 模拟此链接的 onclick 操作。我知道 html css 和 javascript 足以找到下载链接的其他属性。
这甚至可以做到吗?
附注。我很困惑为什么这个问题被否决了?任何好的解释,我是否违反了发布规则或其他内容,谢谢..
一个主要的缺点curl
是越来越多的网页的主要内容是由在初始 HTTP 响应之后发生的 JavaScript AJAX 响应绘制的。curl
从不接受这个后期绘制的内容。
因此,为了从命令行获取这些类型的网页,我只能用 Ruby 编写脚本来驱动 SeleniumRC 启动 Firefox 实例,然后在这些 AJAX 调用完成后返回源 HTML。
为此类问题提供更精简的命令行解决方案会好得多。有谁知道吗?
我想以完全自动化的方式在虚拟机上模拟用户活动。也就是说,我想运行一个程序或一组脚本来模拟用户无限期地使用计算机(例如,模拟办公室工作人员 - 编写一些随机文件,打开一些文件,检查网页等.)
基本上,我正在通过一组虚拟机模拟内部网络,并希望向网络添加一些活动以使其更加真实。
是否有一个程序或一组脚本可以完成所描述的工作?
我在想网络测试工具可能会有所帮助,但是一组这些工具是否足以模拟不同应用程序(例如,邮件服务器、ldap 服务器、nfs、apache 等)上的活动?
有关如何完成此操作的任何建议?
谢谢