CommonCrawl:如何查找特定网页?

Max*_*öhm 5 search-engine common-crawl

我正在使用 CommonCrawl 来恢复我应该实现但没有实现的页面。

在我的理解中,Common Crawl Index 提供对 Common Crawl 存储的所有 URL 的访问。因此,如果实现了 URL,它应该给我一个答案。

一个简单的脚本从可用的爬网下载所有索引:

./cdx-index-client.py -p 4 -c CC-MAIN-2016-18 *.thesun.co.uk --fl url -d CC-MAIN-2016-18
./cdx-index-client.py -p 4 -c CC-MAIN-2016-07 *.thesun.co.uk --fl url -d CC-MAIN-2016-07
... and so on
Run Code Online (Sandbox Code Playgroud)

之后我有 112mb 的数据和简单的 grep:

grep "50569" * -r
grep "Locals-tell-of-terror-shock" * -r
Run Code Online (Sandbox Code Playgroud)

页面不存在。我错过了什么吗?该页面于 2006 年发布并于 2016 年 6 月删除。所以我认为 CommonCrawl 应该已经实现了它们?

更新:感谢塞巴斯蒂安,留下了两个链接......两个网址是:

他们甚至提出了一个“URL 搜索工具”,它用 502 - Bad Gateway 来回答......

Vik*_*hee 4

您可以使用 AWS Athena 查询常见爬网索引(如 SQL)来查找 URL,然后使用偏移量、长度和文件名来读取代码中的内容。请参阅此处的详细信息 - http://commoncrawl.org/2018/03/index-to-warc-files-and-urls-in-columnar-format/

在此输入图像描述