qui*_*tin 1 scale google-cloud-platform google-cloud-pubsub
我正在考虑使用 Google Cloud Pub/Sub 并试图确定我是否会采用Pull或Push订阅者模型。
值得注意的是,拉模型能够处理更大的吞吐量
大量消息(很多超过 1/秒)
消息处理的效率和吞吐量至关重要。
但是,推送模型可以位于 HTTP 负载平衡器之后,因此能够在排队消息的数量超过单个订阅者节点的容量时自动扩展订阅者节点。
拉模型也更安全,因为它不需要在 HTTP 端点中公开敏感操作。
问题是我们如何在拉模型中扩展订阅者节点?GCP 中是否有针对这种情况的内容?
通过拉订阅者进行自动缩放有多种选择:
| 归档时间: |
|
| 查看次数: |
719 次 |
| 最近记录: |