dav*_*ive 5 mocha.js node.js chai
我正在创建一个 mocha 测试套件,它正在测试我们的 nwjs 应用程序正在调用的命令行实用程序,该实用程序获取文件并生成输出 json 文件。我有数千种输入文件和我想要生成的测试 (it()s) 的组合,这取决于 cmdline 实用程序的 json 输出的内容。
Mocha 似乎要求我预先创建所有 it() ,但这意味着需要预先运行这些脚本并捕获 json 输出。我希望这样做:
'use strict';
const path = require('path');
const glob = require('glob');
const expect = require('sharedjs/chai-wrapper').expect;
const utils = require('sharedjs/utils');
describe('Generated Tests:', function() {
let testNum = 0;
let globOpts = { nodir: true }
let type1files = glob.sync(path.join(filetype1_dir, '*'), globOpts);
let type2files = glob.sync(path.join(filetype2_dir, '*'), globOpts);
for (let i = 0; i < type1files.length; i++) {
for (let j = 0; j < type2files.length; j++) {
testNum++;
let testName = utils.mkTestName(testNum, i, j);
describe(testName, function() {
let run;
before(function() {
run = utils.runCommand(type1files[i], type2files[j]);
// run = { status: result.status, command: result.args.join(' '), output: fse.readJsonSync(outfile) }
if (run.status !== 0) {
throw new Error(run.status+'='+run.command);
}
});
for (let key in run.output.analysis) {
it(key+'=0', function() {
expect(run.output.analysis[key].value).to.be.equal('0', key+'=0');
}
}
});
}
}
});
Run Code Online (Sandbox Code Playgroud)
我将在这里进行数以千计的命令行调用。我不想让它们全部预先设置,缓存文件(或者更糟的是,将所有 json 对象加载到内存中)然后开始运行测试。
我知道我可以创建一个高级别的“验证 json”测试,然后在那里做一堆 expect() ,但是有两个问题。首先,它们不会是显示为失败的独立命名测试,其次,第一个预期失败将使测试失败,因此我将无法看到 json 下的其他错误。
想法?
-- 更新了来自 utils.runCommand() 的示例 JSON 输出 --
{
data1: { ... },
data2: { ... },
analysis: {
dynamicKey1: <analysisObj>,
dynamicKey...: <analysisObj>,
dynamicKeyN: <analysisObj>
}
}
Run Code Online (Sandbox Code Playgroud)
分析中的关键字取决于输入的数据类型,并且存在多种可能性。动态键的名称可以随运行而变化。从测试的角度来看,我对密钥的名称不感兴趣,但它的 analysisObj 是一致的。例如,如果我将相同的 data1 和 data2 传递给 utils.runCommand(),那么表示两者之间的差值的 analysisObj 部分应该全面为零。
在我运行脚本之后我才得到 analysisObjs,如果我正在运行 100,000 个测试,我不想预先运行或预加载所有这些到内存或文件系统中。
我要感谢 @JoshLee 为我指出了一些有用的研究路径。
查看mocha代码后,主要关注:
我了解到
输出符合预期,结果反映了正确的测试数量。我已经使用mochawesome为记者运行了这个自动生成的超过 50,000 个测试,这些测试分布在 1980 个测试套件中,并且分布不均,而且效果很好。
在下面更新的代码片段中描述了实现这一点需要 5 个步骤。
'use strict';
const path = require('path');
const glob = require('glob');
const expect = require('sharedjs/chai-wrapper').expect;
const utils = require('sharedjs/utils');
// Step 1: Pull in Test class directly from mocha
const Test = require('mocha/lib/test');
// Step 2: Simulates it() from mocha/lib/interfaces/bdd.js
// I ignore the isPending() check from bdd.js. I don't know
// if ignoring it is required, but I didn't see a need to add
// it for my case to work
function addTest(suite, title, fn) {
let test = new Test(title, fn);
test.file = __filename;
suite.addTest(test);
return test;
}
let testNum = 0;
let globOpts = { nodir: true }
let type1files = glob.sync(path.join(filetype1_dir, '*'), globOpts);
let type2files = glob.sync(path.join(filetype2_dir, '*'), globOpts);
for (let i = 0; i < type1files.length; i++) {
for (let j = 0; j < type2files.length; j++) {
testNum++;
let testName = utils.mkTestName(testNum, i, j);
// Step 3: Save the suite object so that we can add tests to it.
let suite = describe(testName, function() {
let run;
before(function() {
run = utils.runCommand(type1files[i], type2files[j]);
// run = { status: result.status, command: result.args.join(' '),
// output: fse.readJsonSync(outfile) }
if (run.status !== 0) {
throw new Error(run.status+'='+run.command);
}
for (let key in run.output.analysis) {
// Step 4: Dynamically add tests
// suite is defined at this point since before() is always
// run after describe() returns.
addTest(suite, key+'=0', function() {
expect(run.output.analysis[key].value).to.be.equal('0', key+'=0');
});
}
});
});
// Step 5: Add dummy test in describe() block so that it will be run.
// Can be it() for a pass result or it.skip() for pending.
it('Placeholder for ' + testName, function () {
expect(true).to.be.true;
});
}
}
Run Code Online (Sandbox Code Playgroud)