bas*_*bas 5 performance sharding redis servicestack.redis stackexchange.redis
由于我们网站上的负载大量增加,redis 现在正在努力应对峰值负载,因为 redis 服务器实例的 CPU 使用率达到 100%(在八个核心之一上),导致超时。
我们已将客户端软件更新至 ServiceStack V3(来自 BookSleeve 1.1.0.4),并将 redis 服务器升级至 2.8.11(来自 2.4.x)。我选择ServiceStack是因为存在使用ServiceStack.Redis的Harbour.RedisSessionStateStore。我们之前将 AngiesList.Redis 与 BookSleeve 一起使用,但我们也体验到了 100%。
我们有八个 Redis 服务器配置为主/从树。一台服务器用于会话状态。其他的用于数据缓存。一个主设备有两个主设备/从设备,每个设备连接到两个从设备。
当服务器在 100% CPU 使用率时开始堵塞时,它们在峰值时可容纳大约 600 个客户端连接。
我们可以做些什么来提高性能?
分片和/或 StackExchange Redis 客户端(据我所知,没有可用的会话状态客户端...)。
或者可能是其他什么?会话服务器也达到 100%,并且未连接到任何其他服务器(数据和网络吞吐量很低)。
更新1:redis-cli INFO分析
这是运行 Redis 2.8 一晚后 INFO 命令的输出。
# Server
redis_version:2.8.11
redis_git_sha1:00000000
redis_git_dirty:0
redis_build_id:7a57b118eb75b37f
redis_mode:standalone
os:Linux 2.6.32-431.11.2.el6.x86_64 x86_64
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.7
process_id:5843
run_id:d5bb838857d61a9673e36e5bf608fad5a588ac5c
tcp_port:6379
uptime_in_seconds:152778
uptime_in_days:1
hz:10
lru_clock:10765770
config_file:/etc/redis/6379.conf
# Clients
connected_clients:299
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
# Memory
used_memory:80266784
used_memory_human:76.55M
used_memory_rss:80719872
used_memory_peak:1079667208
used_memory_peak_human:1.01G
used_memory_lua:33792
mem_fragmentation_ratio:1.01
mem_allocator:jemalloc-3.2.0
# Persistence
loading:0
rdb_changes_since_last_save:70245
rdb_bgsave_in_progress:0
rdb_last_save_time:1403274022
rdb_last_bgsave_status:ok
rdb_last_bgsave_time_sec:0
rdb_current_bgsave_time_sec:-1
aof_enabled:0
aof_rewrite_in_progress:0
aof_rewrite_scheduled:0
aof_last_rewrite_time_sec:-1
aof_current_rewrite_time_sec:-1
aof_last_bgrewrite_status:ok
aof_last_write_status:ok
# Stats
total_connections_received:3375
total_commands_processed:30975281
instantaneous_ops_per_sec:163
rejected_connections:0
sync_full:10
sync_partial_ok:0
sync_partial_err:5
expired_keys:8059370
evicted_keys:0
keyspace_hits:97513
keyspace_misses:46044
pubsub_channels:2
pubsub_patterns:0
latest_fork_usec:22040
# Replication
role:master
connected_slaves:2
slave0:ip=xxx.xxx.xxx.xxx,port=6379,state=online,offset=272643782764,lag=1
slave1:ip=xxx.xxx.xxx.xxx,port=6379,state=online,offset=272643784216,lag=1
master_repl_offset:272643811961
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:272642763386
repl_backlog_histlen:1048576
# CPU
used_cpu_sys:20774.19
used_cpu_user:2458.50
used_cpu_sys_children:304.17
used_cpu_user_children:1446.23
# Keyspace
db0:keys=77863,expires=77863,avg_ttl=3181732
db6:keys=11855,expires=11855,avg_ttl=3126767
Run Code Online (Sandbox Code Playgroud)
更新2:twemproxy(分片)
我发现了一个有趣的组件,称为twemproxy。据我了解,这个组件可以跨多个 Redis 实例进行分片。
这会有助于减轻CPU负担吗?
这会节省我们大量的编程时间,但在每台服务器上配置 3 个额外的实例仍然需要花费一些精力。所以我希望在我们投入工作之前有人能够确认或揭穿这个解决方案。
要做的第一件事是查看slowlog get 50(或选择任意数量的行) - 这显示了50花费大量时间的最后命令。可能是因为您正在做的某些事情花费的时间太长了。如果我看到里面有什么东西slowlog,我会很担心——我通常每隔几天就会看到一些东西。如果您不断看到大量项目,那么:您需要调查您在服务器上实际执行的操作。永远不要做的一件致命的事情是,但还有其他事情。keys
接下来要做的就是:缓存。在到达后端之前短路的请求是免费的。我们广泛使用 Redis,但这并不意味着我们也忽略本地内存。
我们在应用程序中发现了一个问题。缓存中的更新数据与本地内存缓存的通信是通过 redis 通道订阅实现的。
每次刷新本地缓存时,项目过期或项目更新消息都会发送到所有(35)个网络服务器,然后这些服务器又开始更新更多项目,等等。
禁用更新密钥的消息将我们的情况改善了 10 倍。
网络带宽从 1.2 Gbps 下降到 200 Mbps,CPU 利用率为 40%,而我们迄今为止在极端计算和更新时的负载为 150%。