如何从另一个应用程序启动它时正确等待apache spark启动器作业?

Ale*_*ska 6 java apache-spark spark-launcher

当我等到我的火花apache工作完成时,我试图避免"while(true)"解决方案,但没有成功.

我有一个spark应用程序,它假设处理一些数据并将结果放到数据库中,我确实从我的spring服务中调用它,并希望等到作业完成.

例:

启动器方法:

@Override
public void run(UUID docId, String query) throws Exception {
    launcher.addAppArgs(docId.toString(), query);

    SparkAppHandle sparkAppHandle = launcher.startApplication();

    sparkAppHandle.addListener(new SparkAppHandle.Listener() {
        @Override
        public void stateChanged(SparkAppHandle handle) {
            System.out.println(handle.getState() + " new  state");
        }

        @Override
        public void infoChanged(SparkAppHandle handle) {
            System.out.println(handle.getState() + " new  state");
        }
    });

    System.out.println(sparkAppHandle.getState().toString());
}
Run Code Online (Sandbox Code Playgroud)

如何正确等待,直到处理程序状态为"已完成".

小智 6

我也在 Spring 应用程序中使用 SparkLauncher。这是我采用的方法的摘要(通过遵循 JavaDoc 中的示例)。

用于启动作业的@Service 也实现了 SparkHandle.Listener 并通过 .startApplication 传递对自身的引用,例如

...
...
@Service
public class JobLauncher implements SparkAppHandle.Listener {
...
...
...
private SparkAppHandle launchJob(String mainClass, String[] args) throws Exception {

    String appResource = getAppResourceName();

    SparkAppHandle handle = new SparkLauncher()
        .setAppResource(appResource).addAppArgs(args)
        .setMainClass(mainClass)
        .setMaster(sparkMaster)
        .setDeployMode(sparkDeployMode)
        .setSparkHome(sparkHome)
        .setConf(SparkLauncher.DRIVER_MEMORY, "2g")
        .startApplication(this);

    LOG.info("Launched [" + mainClass + "] from [" + appResource + "] State [" + handle.getState() + "]");

    return handle;
}

/**
* Callback method for changes to the Spark Job
*/
@Override
public void infoChanged(SparkAppHandle handle) {

    LOG.info("Spark App Id [" + handle.getAppId() + "] Info Changed.  State [" + handle.getState() + "]");

}

/**
* Callback method for changes to the Spark Job's state
*/
@Override
public void stateChanged(SparkAppHandle handle) {

    LOG.info("Spark App Id [" + handle.getAppId() + "] State Changed. State [" + handle.getState() + "]");

}
Run Code Online (Sandbox Code Playgroud)

使用这种方法,当状态变为“FAILED”、“FINISHED”或“KILLED”时,可以采取行动。

我希望这些信息对您有所帮助。