我必须检查200个http URL的状态,并找出其中哪些是断开的链接.链接存在于一个简单的文本文件中(比如我的〜文件夹中的URL.txt).我正在使用Ubuntu 14.04,我是一个Linux新手.但我知道bash shell非常强大,可以帮助我实现我想要的.
我的确切要求是读取包含URL列表的文本文件,并自动检查链接是否正常工作,并将响应写入包含URL及其相应状态(工作/损坏)的新文件.
背景:我有一个功能,用户可以从我的基于 Web 的应用程序中导出 excel 文件。excel 包含有关某些记录的详细信息。有一个记录 ID 列,其中嵌入了指向直接 URL 的链接,用于在应用程序中查看该记录。
问题:单击 Excel 电子表格中的超链接时,浏览器中未加载正确的 URL。而是加载通用 URL 登录页面。但是,从 Libre Office 中它运行良好并且加载了正确的页面。
调试结果:当单击 excel 中的链接时,我们从带有用户代理“Microsoft Office Excel 2013”的客户端收到 http“HEAD”请求。
我试过记录 $_SERVER['REQUEST_METHOD'] and $_SERVER['HTTP_USER_AGENT']
请建议我应该怎么做才能解决这个问题。我应该编写服务器端代码吗?是否可以使用 Apache mod rewrite 解决此问题?
环境: