如何估算 Google Cloud Run 成本?

Jan*_*änd 3 google-cloud-platform google-cloud-run

我已经建立了我的机器学习模型,现在作为下一步,我希望将其公开。计划是:

  • 使用 Streamlit 构建 UI。
  • 使用 Docker 镜像打包应用程序。
  • 将 Docker 映像部署到 Google Cloud Run 环境中。
  • 在 Google Cloud Run 环境中启动 Docker 容器。

但问题是我无法估计在 Google Cloud Run 中启动和运行容器的成本(我仍然是初学者)。如何估计最坏的情况,即它应该产生的最大成本是多少?Google Cloud Run 定价表中有 CPU、内存、请求和网络属性,但:

  • 我如何才能确切知道我的应用程序将占用多少这些资源?
  • 如果应用程序公开可用并且请求超过免费限制配额,我可能会得到天文数字的账单。
  • 我可以设置一些账单不能超过的限额吗?

gui*_*ere 5

计费非常简单:您支付 CPU 时间和分配的内存时间(以及一点点请求数量)。

当前最坏的情况是:(每个实例每秒的 NbCpu + 每个实例每秒的内存)* 3600 * 24 * 30 * 1000。

  • 3600是一小时内的秒变
  • 24 转换一天中的小时
  • 30 转换一个月中的一天
  • 1000 默认最大实例参数

如果要限制成本,限制最大实例参数。但是您也会限制应用程序的可伸缩性。但这会阻止您获得天文数字,这是一个权衡问题。

关于计费,您也可以在您的项目预算中设置提醒

关于应用程序使用的资源数量的最后一个问题。很难说!但是,您必须了解您的应用程序。指标图可以帮助您提供一些输入。

但是,Cloud Run最多可以处理 80 个并发请求。因此,当您一次只处理 1 个请求时,您的指标可能会随着 80 个请求而发生巨大变化!尤其是内存消耗!

您还可以使用此并发参数来限制一个实例的大小。但是你是否减少了它,不要将最大实例参数设置得太低,否则将不会提供某些请求。

权衡问题