R.C*_*R.C 3 spring-integration apache-kafka spring-boot kafka-consumer-api spring-kafka
由于我是kafka的新手,我的小组在Spring-boot应用程序上使用Spring-Integration-kafka:2.0.0.RELEASE.我能在此基础上例如用我的KafkaConsumer消耗卡夫卡的消息在这里.
对于这个spring-boot应用程序,我有我的Application.java
package hello;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import java.util.concurrent.TimeUnit;
import hello.notification.Listener;
@SpringBootApplication
public class Application {
private Listener listener;
public void run(String... args) throws Exception {
this.listener.countDownLatch1.await(60, TimeUnit.SECONDS);
}
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
}
Run Code Online (Sandbox Code Playgroud)
这是我的KafkaConsumerConfig.java
package hello.notification;
import ....; //different imports
@Configuration
@EnableKafka
public class KafkaConsumerConfig {
@Bean
KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
factory.setConcurrency(1);
factory.getContainerProperties().setPollTimeout(3000);
return factory;
}
@Bean
public ConsumerFactory<String, String> consumerFactory() {
Map<String, Object> propsMap = new HashMap<>();
propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
//propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 100);
propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 6000);
propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
return new DefaultKafkaConsumerFactory<>(propsMap);
}
@Bean
public Listener listener() {
return new Listener();
}
}
Run Code Online (Sandbox Code Playgroud)
最后是我的Listener.java
package hello.notification;
import ...; // different imports
public class Listener {
public final CountDownLatch countDownLatch1 = new CountDownLatch(1);
@KafkaListener(topics = "topic1")
public void listen(ConsumerRecord<?, ?> record, Acknowledgment ack) {
System.out.println(record + " and " + ack);
// Place holder for "ack.acknowledge();"
countDownLatch1.countDown();
}
}
Run Code Online (Sandbox Code Playgroud)
我的问题是:
1)在ConsumerConfig设置中,我已经将"ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG"设置为false并注释掉了"ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG",为什么它仍然自动提交?(因为如果我重新启动spring-boot,我将不再看到该消息应用程序 - 我希望它能够重新发送,直到它被提交为止)
2)为了手动提交,我想我只需要在我的Listener.listen中添加ack.acknowledge()(请看占位符)?除此之外我还有什么需要确保这是一个手动提交吗?
3)我想拥有最简单/最干净的kafkaconsumer,我想知道你是否认为我拥有的是最简单的方式,最初我是在寻找单线程的消费者,但是那里没有很多例子所以我坚持使用并发监听器.
感谢您的所有帮助和投入!
为什么它仍然自动提交?
只是因为默认情况下KafkaMessageListenerContainer提供:
private AbstractMessageListenerContainer.AckMode ackMode = AckMode.BATCH;
Run Code Online (Sandbox Code Playgroud)
除此之外我还有什么需要确保这是一个手动提交吗?
你必须切换到
ContainerProperties.setAckMode(AbstractMessageListenerContainer.AckMode.MANUAL)
Run Code Online (Sandbox Code Playgroud)
我想知道你认为我拥有的是最简单的方法
那是对的.只需要习惯.
有关详细信息,请参见参考手册
| 归档时间: |
|
| 查看次数: |
2201 次 |
| 最近记录: |