Max*_*öhm 5 search-engine common-crawl
我正在使用 CommonCrawl 来恢复我应该实现但没有实现的页面。
在我的理解中,Common Crawl Index 提供对 Common Crawl 存储的所有 URL 的访问。因此,如果实现了 URL,它应该给我一个答案。
一个简单的脚本从可用的爬网下载所有索引:
./cdx-index-client.py -p 4 -c CC-MAIN-2016-18 *.thesun.co.uk --fl url -d CC-MAIN-2016-18
./cdx-index-client.py -p 4 -c CC-MAIN-2016-07 *.thesun.co.uk --fl url -d CC-MAIN-2016-07
... and so on
Run Code Online (Sandbox Code Playgroud)
之后我有 112mb 的数据和简单的 grep:
grep "50569" * -r
grep "Locals-tell-of-terror-shock" * -r
Run Code Online (Sandbox Code Playgroud)
页面不存在。我错过了什么吗?该页面于 2006 年发布并于 2016 年 6 月删除。所以我认为 CommonCrawl 应该已经实现了它们?
更新:感谢塞巴斯蒂安,留下了两个链接......两个网址是:
他们甚至提出了一个“URL 搜索工具”,它用 502 - Bad Gateway 来回答......
您可以使用 AWS Athena 查询常见爬网索引(如 SQL)来查找 URL,然后使用偏移量、长度和文件名来读取代码中的内容。请参阅此处的详细信息 - http://commoncrawl.org/2018/03/index-to-warc-files-and-urls-in-columnar-format/
| 归档时间: |
|
| 查看次数: |
2303 次 |
| 最近记录: |