如何杀死 Kafka 集群中的分布式工作人员?

aar*_*xer 5 apache-kafka apache-kafka-connect

我正在使用 Apache Kafka 并使用分布式工作线程。我可以按如下方式启动我的工人:

// Command to start the distributed worker.
"bin/connect-distributed.sh config/connect-distributed.properties"
Run Code Online (Sandbox Code Playgroud)

这是来自官方文档。之后我们可以创建连接器和任务。这很好用。

但是当我更改连接器或任务逻辑时,我应该jar向 kafka 的类路径添加新内容。之后我应该重新启动工作人员。

我不知道这应该如何正确,我认为我们应该停止并运行工人。

但是当我想停止工作时,我不知道如何正确地做到这一点。当然,我可以通过找到我的进程ps aux | grep worker,杀死它并杀死我也应该找到的其余服务器ps。但我认为这是一个奇怪的案例。杀死两个进程不是一个好主意,但我找不到任何信息如何以其他方式做到这一点。

如果您知道正确的方法,请帮助我:)

谢谢你的时间。

cri*_*007 4

杀死两个进程不是好主意

ConnectDistributed只是一个过程。没有单独的 REST 服务器需要停止。

是的,:connector/pause后面跟着 akill <pid>是阻止它的正确方法。

如果安装了最新版本的 Confluence Platform,您可以停止/开始使用systemctl.