Jan*_*änd 3 google-cloud-platform google-cloud-run
我已经建立了我的机器学习模型,现在作为下一步,我希望将其公开。计划是:
但问题是我无法估计在 Google Cloud Run 中启动和运行容器的成本(我仍然是初学者)。如何估计最坏的情况,即它应该产生的最大成本是多少?Google Cloud Run 定价表中有 CPU、内存、请求和网络属性,但:
计费非常简单:您支付 CPU 时间和分配的内存时间(以及一点点请求数量)。
当前最坏的情况是:(每个实例每秒的 NbCpu + 每个实例每秒的内存)* 3600 * 24 * 30 * 1000。
如果要限制成本,限制最大实例参数。但是您也会限制应用程序的可伸缩性。但这会阻止您获得天文数字,这是一个权衡问题。
关于计费,您也可以在您的项目预算中设置提醒
关于应用程序使用的资源数量的最后一个问题。很难说!但是,您必须了解您的应用程序。指标图可以帮助您提供一些输入。
但是,Cloud Run最多可以处理 80 个并发请求。因此,当您一次只处理 1 个请求时,您的指标可能会随着 80 个请求而发生巨大变化!尤其是内存消耗!
您还可以使用此并发参数来限制一个实例的大小。但是你是否减少了它,不要将最大实例参数设置得太低,否则将不会提供某些请求。
权衡问题
| 归档时间: |
|
| 查看次数: |
1029 次 |
| 最近记录: |