我有一个客户将多 TB 的数据上传到 Glacier。他们滚雪球般获得了 65 TB 的数据,他们将通过上传完成剩余的约 25 TB 数据。目前,他们正在使用 FastGlacier 直接上传到 Glacier,但该工具在他们唯一的 Windows 计算机(一个完整的 Mac 商店)上运行,并且由于排队大量数据而不断崩溃。此外,该程序在搜索/浏览商店方面还有很多不足之处,因为为了查看 Glacier 中的文件,您需要下载库存(需要 4-6 小时的准备时间)。
为了保持一致性,我们希望上传到用于 Snowball 的 S3 共享,并使用生命周期管理规则进行相同的 0 天过渡到 Glacier,但不希望为此产生大量 S3 成本。我知道 S3 成本是基于当月的平均使用情况,但不确定如何估算。