6 optimization benchmarking amazon-web-services redis amazon-elasticache
我有一个包含 1 亿个字符串的列表,每行一个。文件大小为 1.66 GB。每个字符串大约有 20 个字符长。
我开始将数据插入小实例中并出现最大内存错误。那时只插入了 100 万条记录。
Micro
Micro Cache Node (cache.t1.micro): 213 MB memory, Up to 2 ECU (for short periodic bursts), 64-bit platform, Low I/O Capacity
Standard
Small Cache Node (cache.m1.small): 1.3 GB memory, 1 ECU (1 virtual core with 1 ECU), 64-bit platform, Moderate I/O Capacity
Medium Cache Node (cache.m1.medium): 3.35 GB memory, 2 ECU (1 virtual core with 2 ECUs), 64-bit platform, Moderate I/O Capacity
Large Cache Node (cache.m1.large): 7.1 GB memory, 4 ECUs (2 virtual cores with 2 ECUs each), 64-bit platform, High I/O Capacity
Extra Large Cache Node (cache.m1.xlarge): 14.6 GB of memory, 8 ECUs (4 virtual cores with 2 ECUs each), 64-bit platform, High I/O Capacity
Run Code Online (Sandbox Code Playgroud)
小型缓存节点是否能够存储数据,或者我会耗尽空间吗?如何计算实例可以处理的记录数?
据此: http: //redis.io/topics/faq
当你有很多小key时,它将使用redis中存储数据大小的5-6倍的内存。
您可能需要大约 8-10 GB 的内存来存储数据集。这将限制您使用cache.m1.xlarge。
| 归档时间: |
|
| 查看次数: |
13624 次 |
| 最近记录: |