kafka-streams join 产生重复项

mik*_*ike 1 apache-kafka apache-kafka-streams

我有两个主题:

// photos
{'id': 1, 'user_id': 1, 'url': 'url#1'},
{'id': 2, 'user_id': 2, 'url': 'url#2'},
{'id': 3, 'user_id': 2, 'url': 'url#3'}

// users
{'id': 1, 'name': 'user#1'},
{'id': 1, 'name': 'user#1'},
{'id': 1, 'name': 'user#1'}
Run Code Online (Sandbox Code Playgroud)

我按用户创建地图照片

KStream<Integer, Photo> photo_by_user = ...

photo_by_user.to("photo_by_user")
Run Code Online (Sandbox Code Playgroud)

然后,我尝试连接两个表:

KTable<Integer, User> users_table = builder.table("users");
KTable<Integer, Photo> photo_by_user_table = builder.table("photo_by_user");
KStream<Integer, Result> results = users_table.join(photo_by_user_table, (a, b) -> Result.from(a, b)).toStream();

results.to("results");
Run Code Online (Sandbox Code Playgroud)

结果就像

{'photo_id': 1, 'user': 1, 'url': 'url#1', 'name': 'user#1'}
{'photo_id': 2, 'user': 2, 'url': 'url#2', 'name': 'user#2'}
{'photo_id': 3, 'user': 3, 'url': 'url#3', 'name': 'user#3'}
{'photo_id': 1, 'user': 1, 'url': 'url#1', 'name': 'user#1'}
{'photo_id': 2, 'user': 2, 'url': 'url#2', 'name': 'user#2'}
{'photo_id': 3, 'user': 3, 'url': 'url#3', 'name': 'user#3'}
Run Code Online (Sandbox Code Playgroud)

我发现结果是重复的。为什么,以及如何避免?

Mat*_*Sax 6

您可能会遇到一个已知的错误。“刷新”KTable-KTable 连接可能会产生一些重复项。请注意,严格来说,这些重复项并不是不正确的,因为结果是更新流,并且将“A”更新为“A”不会更改结果。当然,获得这些重复项是不希望的。尝试禁用缓存——如果没有缓存,“刷新问题”就不会发生。