我通常在www.codefights.com上编写代码(函数)作为竞争对手.因此速度是代码的重要部分之一.我怎样才能测量python语言中某个代码的速度,无论是lambda函数还是def函数.
我有3个问题:
1)
sklearn的混淆矩阵如下:
TN | FP
FN | TP
Run Code Online (Sandbox Code Playgroud)
当我查看在线资源时,我发现它是这样的:
TP | FP
FN | TN
Run Code Online (Sandbox Code Playgroud)
我应该考虑哪一个?
2)
由于上述 scikit learn 的混淆矩阵与我在其他资源中找到的混淆矩阵不同,在多类混淆矩阵中,结构是什么?我正在看这篇文章: Scikit-learn:如何获得真阳性、真阴性、假阳性和假阴性 在那篇文章中,@lucidv01d 发布了一个图表来了解多类的类别。scikit learn 中的那个类别是否相同?
3)
你如何计算多类的准确性?例如,我有这个混淆矩阵:
[[27 6 0 16]
[ 5 18 0 21]
[ 1 3 6 9]
[ 0 0 0 48]]
Run Code Online (Sandbox Code Playgroud)
在我在问题 2 中提到的同一篇文章中,他写下了这个等式:
ACC = (TP+TN)/(TP+FP+FN+TN)
但这不只是二进制吗?我的意思是,我用什么班级代替TP?
confusion-matrix scikit-learn text-classification performance-measuring
我已经为分类问题实现了逻辑回归。我在精度、召回率和 F1 分数上得到相同的值。具有相同的值可以吗?我在实现决策树和随机森林时也遇到了这个问题。在那里我也得到了相同的精度、召回率和 F1 分数。
// Run training algorithm to build the model.
final LogisticRegressionModel model = new LogisticRegressionWithLBFGS()
.setNumClasses(13).
run(data.rdd());
//Compute raw scores on the test set.
JavaRDD<Tuple2<Object, Object>> predictionAndLabels = testData.map(
new Function<LabeledPoint, Tuple2<Object, Object>>() {
public Tuple2<Object, Object> call(LabeledPoint p) {
Double prediction = model.predict(p.features());
return new Tuple2<Object, Object>(prediction, p.label());
}
}
);
// Get evaluation metrics.
MulticlassMetrics metrics = new MulticlassMetrics(predictionAndLabels.rdd());
double precision = metrics.precision();
System.out.println("Precision = " + precision);
double recall = metrics.recall();
System.out.println("Recall = …Run Code Online (Sandbox Code Playgroud) 我刚刚针对我目前正在处理的特定问题进行了从caret到的切换mlr。我想知道这里是否有人熟悉在resample()函数中指定自定义性能度量。
这是一个可重现的代码示例:
library(mlr)
library(mlbench)
data(BostonHousing, package = "mlbench")
task_reg1 <- makeRegrTask(id = "bh", data = BostonHousing, target = "medv")
lrn_reg1 <- makeLearner(cl = "regr.randomForest",
predict.type = "response",
mtry=3)
cv_reg1 <- makeResampleDesc("RepCV", folds = 5, reps = 5)
regr_1 <- resample(learner = lrn_reg1,
task = task_reg1,
resampling = cv_reg1,
measures = mlr::rmse)
Run Code Online (Sandbox Code Playgroud)
我想计算平均绝对比例误差,而不是计算 RMSE 。例如,可以在Metrics包中找到用于此的函数:Metrics::mase()。
我试图measures = Metrics::mase直接包含在resample()调用中,但正如预期的那样,有点乐观,我收到以下错误:
Error in checkMeasures(measures, task) :
Assertion on …
如何评估 ASR(自动语音识别)中的 WER(单词错误率)?
例如,如果我有 ASR 的句子和输出(人工参考翻译)。
我知道这个方程,但我不知道如何计算。计算WER时是否输入逗号、句号等标点符号?
以及单词的 sub、ins 和 del。有具体重量吗?他们每个人什么时候在等式中计算?
任何人都知道我们如何计算 ASR 的 WER.. 请给我一个例子,以便我可以在我的应用程序中的多个句子中计算 ASR 的 WER