wai*_*ani 7 puppet amazon-ec2 amazon-web-services ec2-ami autoscaling
如何配置AWS自动扩展以快速扩展?我已经设置了一个带有ELB的AWS自动缩放组.一切都运行良好,除了在添加新实例并在线之前需要几分钟.我在一篇关于Puppet和autoscaling的帖子中遇到了以下内容:
如果用于一组节点的AMI已经是最新的,则缩放时间可以从几分钟降低到几秒.
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
这是真的?可以缩短时间缩短到几秒钟吗?使用木偶会增加任何性能提升吗?
我还读到较小的实例比较大的实例开始更快:
小型实例1.7 GB内存,1个EC2计算单元(1个虚拟核心,1个EC2计算单元),160 GB实例存储,32位平台,基本安装CentOS 5.3 AMI
从实例发布到可用性的时间:5到6分钟us-east-1c
大型实例7.5 GB内存,4个EC2计算单元(2个虚拟内核,每个2个EC2计算单元),850 GB实例存储,64位平台,基本安装CentOS 5.3 AMI
从实例发布到可用性的时间:
11到18分钟us-east-1c两者都是使用Amazons工具通过命令行启动的.
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
我注意到这篇文章很旧,我的c1.xlarge实例肯定没有花费18分钟来启动.尽管如此,配置具有50个微实例的自动缩放组(具有100%容量增加的扩展策略)是否会比具有20个大实例的自动缩放组更有效?或者可能创建两个自动缩放组,一个用于快速启动时间的微型组,另一个用于在几分钟后添加CPU grunt的大型实例?在其他条件相同的情况下,t1.micro上线的速度比c1.xlarge快多少?
小智 3
您可以通过使用“--cooldown”值(以秒为单位)来增加或减少自动呼叫器的反应时间。关于要使用的实例类型,这主要取决于应用程序类型,并且应在密切的性能监控和生产调整之后就此主题做出决定。
| 归档时间: |
|
| 查看次数: |
3718 次 |
| 最近记录: |