小编pra*_*een的帖子

从spring-batch-admin迁移到spring cloud数据流

我们计划从spring-batch-admin迁移到spring-cloud-dataflow,因为批处理管理员将进入Spring Attic,生命结束日期为2017年12月31日.

根据Migration Doc中的文档," 在Spring Batch用例中,每个批处理作业都打包为一个在Spring Cloud Data Flow中注册的独立SpringBootüberjar "

在这种情况下,如果有50个批次作业,必须创建50个超级罐?这样做将是一场维护噩梦,创造许多罐子并且难以维护它们.

任何相同的解决方法?所以我们可以将所有批量作业打包在单个超级罐中,我们可以在需要时随机启动任何工作吗?

任何帮助将非常感谢,提前感谢

spring-batch spring-batch-admin spring-cloud-dataflow

2
推荐指数
1
解决办法
1752
查看次数