TF 2.3.0 使用带有样本权重的 tf 数据集训练 keras 模型不适用于指标

kaw*_*vin 2 metrics keras tensorflow

我将 sample_weight 作为 tf.data.Dataset 中的第三个元组传递(在掩码的上下文中使用它,所以我的 sample_weight 要么是 0,要么是 1。问题是这个 sample_weight 似乎没有应用于度量计算.(参考:https : //www.tensorflow.org/guide/keras/train_and_evaluate#sample_weights

这是代码片段:

train_ds = tf.data.Dataset.from_tensor_slices((imgs, labels, masks))
train_ds = train_ds.shuffle(1024).repeat().batch(32).prefetch(buffer_size=AUTO)

model.compile(optimizer = Adam(learning_rate=1e-4),
             loss = SparseCategoricalCrossentropy(),
             metrics = ['sparse_categorical_accuracy'])

model.fit(train_ds, steps_per_epoch = len(imgs)//32, epochs = 20)
Run Code Online (Sandbox Code Playgroud)

训练后的损失非常接近于零,但 sparse_categorical_accuracy 不是(大约 0.89)。因此,我高度怀疑为构建 tf.dataset 传入的任何 sample_weight(掩码)都不会在训练期间报告指标时应用,而损失似乎是正确的。我通过对未单独屏蔽的子集运行预测进一步确认,并确认准确度为 1.0

另外,根据文档:

https://www.tensorflow.org/api_docs/python/tf/keras/metrics/SparseCategoricalAccuracy

该指标有 3 个参数:y_true、y_pred、sample_weight

那么如何在度量计算期间传递 sample_weight 呢?这是 keras 框架内 model.fit(...) 的责任吗?到目前为止,我找不到任何谷歌搜索的例子。

kaw*_*vin 5

经过一些调试和文档阅读,我发现 .compile 中有 weighted_metrics 参数,我应该使用它而不是 metrics=。我确认这修复了我在共享 colab 中的测试用例。

model.compile(optimizer = Adam(learning_rate=1e-4),
             loss = SparseCategoricalCrossentropy(),
             weighted_metrics = [SparseCategoricalAccuracy()])
Run Code Online (Sandbox Code Playgroud)