Har*_*tal 1 archive amazon-s3 amazon-web-services amazon-glacier
我在 S3 (4TB) 上有大约 80,000,000 个 50KB 文件,我想将其传输到 Glacier DA。我开始意识到将大量小文件传输到 Glacier 的成本效率低下。
假设我不介意将文件归档到单个(或多个)tar/zip 中 - 将这些文件转换到 Glacier DA 的最佳实践是什么?
需要注意的是,我只在 S3 上有这些文件,而不在任何本地计算机上。
最有效的方法是:
--storage-class DEEP_ARCHIVE上述操作将产生很少的费用,因为您可以在不再需要 EC2 时终止 EC2,并且 EBS 仅在卷存在时才收费。
如果列出文件子集所需的时间过长,您可以考虑使用Amazon S3 Inventory,它可以提供列出所有对象的每日或每周 CSV 文件。然后,您可以使用此列表来专门复制文件,或标识要复制的路径/子目录。
作为额外的建议...如果您的系统继续收集更多文件,您可能会考虑以不同的方式收集数据(例如流式传输到 Kinesis Firehose 以将数据批处理在一起),或定期组合数据而不是让它再次蔓延到这么多文件。如果可能的话,更少、更大的文件更容易在进程中使用。
| 归档时间: |
|
| 查看次数: |
1125 次 |
| 最近记录: |