我一直在研究一个包含大量测试的相当大的Python项目.
应用程序的某些特定部分需要进行一些CPU密集型测试,而我们在提交之前测试所有内容的方法仍然有意义.
我们采用了基于标签的选择性测试方法.问题在于,随着代码库的增长,维护所述标记方案变得有些麻烦,我想开始研究是否可以构建更智能的东西.
在以前的工作中,测试系统只测试了受提交更改影响的代码.
好像Mighty Moose采用了类似的CLR语言方法.使用这些作为灵感,我的问题是,在Python项目中进行智能选择性测试有哪些替代方案(如果有的话)?
如果没有,那么构建类似的东西会有什么好的初始方法?