相关疑难解决方法(0)

适用于Kafka 0.10.0.0及更高版本的session.timeout.ms和max.poll.interval.ms之间的差异

我不清楚为什么我们需要session.timeout.ms和max.poll.interval.ms以及何时使用一个或另一个或两者?似乎两者都表明时间协调器的上限将等待消费者获得心跳,然后再将其假死.

另外,对于基于KIP-62的 0.10.1.0+版本,它的表现如何?

apache-kafka kafka-consumer-api

36
推荐指数
1
解决办法
3万
查看次数

卡夫卡消费者,很长的再平衡

我们正在运行一个3经纪人Kafka 0.10.0.1集群.我们有一个java应用程序,它产生许多消费者线程,消费来自不同的主题.对于每个主题,我们都指定了不同的消费者群体.

很多时候,我看到每当重新启动此应用程序时,一个或多个CG需要超过5分钟才能接收分区分配.直到那个时间消费者不会消费任何东西.如果我去Kafka经纪人并运行consumer-groups.sh并描述那个特定的CG,我发现它正在重新平衡.在server.log中我看到这样的行

准备稳定群体otp-sms-consumer稳定群体otp-sms-consumer

在这两个原木之间通常存在约5分钟或更长的间隙.在消费者方面,当我打开跟踪级别日志时,在此暂停时间内几乎没有任何活动.几分钟后,很多活动开始了.在该主题中存储时间关键数据,如otp-sms,我们不能容忍这种长时间的延迟.这种长期再平衡的原因是什么?

这是我们的消费者配置

auto.commit.interval.ms = 3000
auto.offset.reset = latest
bootstrap.servers = [x.x.x.x:9092, x.x.x.x:9092, x.x.x.x:9092]
check.crcs = true
client.id =
connections.max.idle.ms = 540000
enable.auto.commit = true
exclude.internal.topics = true
fetch.max.bytes = 52428800
fetch.max.wait.ms = 500
fetch.min.bytes = 1
group.id = otp-notifications-consumer
heartbeat.interval.ms = 3000
interceptor.classes = null
key.deserializer = class org.apache.kafka.common.serialization.StringDeserializer
max.partition.fetch.bytes = 1048576
max.poll.interval.ms = 300000
max.poll.records = 50
metadata.max.age.ms = 300000
metric.reporters = []
metrics.num.samples = 2
metrics.sample.window.ms = 30000
partition.assignment.strategy = [class org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytes = …
Run Code Online (Sandbox Code Playgroud)

apache-kafka

9
推荐指数
1
解决办法
959
查看次数

如何在kafka消费者组的情况下引入延迟重新平衡?

我想给我的消费者一些时间来重新启动,这样就不会发生不必要的重新平衡。我怎样才能做到这一点?在关闭的情况下,我希望复制能够出现,并且一段时间后如果消费者没有备份,则应该发生重新平衡,否则不会。

apache-kafka apache-kafka-streams

7
推荐指数
1
解决办法
1万
查看次数