快速AWS自动扩展

wai*_*ani 7 puppet amazon-ec2 amazon-web-services ec2-ami autoscaling

如何配置AWS自动扩展以快速扩展?我已经设置了一个带有ELB的AWS自动缩放组.一切都运行良好,除了在添加新实例并在线之前需要几分钟.我在一篇关于Puppet和autoscaling的帖子中遇到了以下内容:

如果用于一组节点的AMI已经是最新的,则缩放时间可以从几分钟降低到几秒.

http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/

这是真的?可以缩短时间缩短到几秒钟吗?使用木偶会增加任何性能提升吗?

我还读到较小的实例比较大的实例开始更快:

小型实例1.7 GB内存,1个EC2计算单元(1个虚拟核心,1个EC2计算单元),160 GB实例存储,32位平台,基本安装CentOS 5.3 AMI

从实例发布到可用性的时间:5到6分钟us-east-1c

大型实例7.5 GB内存,4个EC2计算单元(2个虚拟内核,每个2个EC2计算单元),850 GB实例存储,64位平台,基本安装CentOS 5.3 AMI

从实例发布到可用性的时间:
11到18分钟us-east-1c

两者都是使用Amazons工具通过命令行启动的.

http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance

我注意到这篇文章很旧,我的c1.xlarge实例肯定没有花费18分钟来启动.尽管如此,配置具有50个微实例的自动缩放组(具有100%容量增加的扩展策略)是否会比具有20个大实例的自动缩放组更有效?或者可能创建两个自动缩放组,一个用于快速启动时间的微型组,另一个用于在几分钟后添加CPU grunt的大型实例?在其他条件相同的情况下,t1.micro上线的速度比c1.xlarge快多少?

小智 3

您可以通过使用“--cooldown”值(以秒为单位)来增加或减少自动呼叫器的反应时间。关于要使用的实例类型,这主要取决于应用程序类型,并且应在密切的性能监控和生产调整之后就此主题做出决定。