Kafka Consumer:引发异常时停止处理消息

ama*_*oqz 6 java apache-kafka kafka-consumer-api spring-kafka

我对 (Spring) Kafka 在停止ConcurrentMessageListenerContainer.

我想要实现的目标:在引发异常后停止消费者(例如消息无法保存到数据库),不提交偏移量,在给定时间后重新启动它并从先前失败的消息重新开始处理。

我读过这篇文章,它说容器将使用民意调查中的剩余记录(https://github.com/spring-projects/spring-kafka/issues/451)调用侦听器,这意味着不能保证之后失败的消息 成功处理的进一步消息将提交偏移量。这可能会导致消息丢失/跳过。

真的是这样吗,如果是,是否有解决方案可以在不升级较新版本的情况下解决此问题?(DLQ 不是我的情况的解决方案)

我已经做了什么:设置setErrorHandler()setAckOnError(false)

private Map<String, Object> getConsumerProps(CustomKafkaProps kafkaProps,  Class keyDeserializer) {
    Map<String, Object> props = new HashMap<>();
    //Set common props
    props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaProps.getBootstrapServers());
    props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, ByteArrayDeserializer.class);
    props.put(ConsumerConfig.GROUP_ID_CONFIG, kafkaProps.getConsumerGroupId());
    props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest"); // Start with the first message when a new consumer group (app) arrives at the topic
    props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false); // We will use "RECORD" AckMode in the Spring Listener Container

    props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, keyDeserializer);

    if (kafkaProps.isSslEnabled()) {
        props.put(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG, "SSL");
        props.put("ssl.keystore.location", kafkaProps.getKafkaKeystoreLocation());
        props.put("ssl.keystore.password", kafkaProps.getKafkaKeystorePassword());
        props.put("ssl.key.password", kafkaProps.getKafkaKeyPassword());
    }

    return props;
}
Run Code Online (Sandbox Code Playgroud)

消费者

public ConcurrentMessageListenerContainer<String, byte[]> kafkaReceiverContainer(CustomKafkaProps kafkaProps) throws Exception {
    StoppingErrorHandler stoppingErrorHandler = new StoppingErrorHandler();

    ContainerProperties containerProperties = new ContainerProperties(...);
    containerProperties.setAckMode(AbstractMessageListenerContainer.AckMode.RECORD);
    containerProperties.setAckOnError(false);
    containerProperties.setErrorHandler(stoppingErrorHandler);

    ConcurrentMessageListenerContainer<String, byte[]> container = ...
    container.setConcurrency(1); //use only one container
    stoppingErrorHandler.setConcurrentMessageListenerContainer(container);

    return container;
}
Run Code Online (Sandbox Code Playgroud)

错误处理程序

public class StoppingErrorHandler implements ErrorHandler {

    @Setter
    private ConcurrentMessageListenerContainer concurrentMessageListenerContainer;

    @Value("${backends.kafka.consumer.halt.timeout}")
    int consumerHaltTimeout;

    @Override
    public void handle(Exception thrownException, ConsumerRecord<?, ?> record) {
        if (concurrentMessageListenerContainer != null) {
            concurrentMessageListenerContainer.stop();
        }

        new Timer().schedule(new TimerTask() {
            @Override
            public void run() {
                if (concurrentMessageListenerContainer != null && !concurrentMessageListenerContainer.isRunning()) {
                    concurrentMessageListenerContainer.start();
                }
            }
        }, consumerHaltTimeout);
    }
}
Run Code Online (Sandbox Code Playgroud)

我在用什么:

  <groupId>org.springframework.integration</groupId>
  <artifactId>spring-integration-kafka</artifactId>
  <version>2.1.2.RELEASE</version>

  <groupId>org.springframework.kafka</groupId>
  <artifactId>spring-kafka</artifactId>
  <version>1.1.7.RELEASE</version>
Run Code Online (Sandbox Code Playgroud)

Gar*_*ell 2

无需升级新版本?

2.1 引入了ContainerStoppingErrorHandler,它是一个ContainerAwareErrorHandler,剩余未消费的消息将被丢弃(并且会在容器重新启动时重新获取)。

对于早期版本,您的侦听器将需要拒绝(失败)批次(或集合max.records.per.poll=1)中的剩余消息。