我有一个train_data和train_labels的训练数据集,它们是张量流图中的train_data_node和train_labels_node。如您所知,我可以使用张量流的损失函数,如下所示:
logits = model(train_data_node)
loss = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(
logits,train_labels_node))
Run Code Online (Sandbox Code Playgroud)
然而,这个损失函数平等地处理所有训练数据。但在我们的情况下,我们希望有区别地处理数据。例如,我们有一个与训练数据对应的 csv 文件,以指示训练数据是原始数据还是增强数据。然后我们要定义一个自定义损失函数,使原始数据的损失发挥更重要的作用,而增强数据的损失发挥不太重要的作用,例如:
loss_no_aug = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(noAugLogits, noAugLabels))
loss_aug = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(augLogits, augLabels))
loss = loss_no_aug * PENALTY_COEFFICIENT + loss_aug
Run Code Online (Sandbox Code Playgroud)
我已经定义了一个损失函数,如下所示,但它不起作用:
def calLoss(logits, labels, augs):
noAugLogits = []
noAugLabels = []
augLogits = []
augLabels = []
tf.get_collection()
for i in range(augs.shape[0]):
if augs[i] == 1:
noAugLogits.append(logits[i])
noAugLabels.append(labels[i])
else:
augLogits.append(logits[i])
augLabels.append(labels[i])
noAugLogits = tf.convert_to_tensor(noAugLogits)
noAugLabels = tf.convert_to_tensor(noAugLabels)
augLogits = tf.convert_to_tensor(augLogits)
augLabels = tf.convert_to_tensor(augLabels)
return tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(
noAugLogits, noAugLabels)) * PENALTY_COEFFICIENT + \
tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(augLogits, augLabels))
Run Code Online (Sandbox Code Playgroud)
我认为我们应该使用张量运算来编写损失函数,但是,我对它们并不熟悉。那么有人可以给我一些关于如何定义损失函数的建议吗?
感谢您的友好答复或建议。
我终于自己使用tensorflow的函数tf.boolen_mask()解决了这个问题。定义的自定义加权损失函数如下:
def calLoss(logits, labels, augs):
augSum = tf.reduce_sum(augs)
pred = tf.less(augSum, BATCH_SIZE)
def noaug(logits, labels, augs):
augs = tf.cast(augs, tf.bool)
noaugs = tf.logical_not(augs)
noAugLogits = tf.boolean_mask(logits, noaugs)
noAugLabels = tf.boolean_mask(labels, noaugs)
augLogits = tf.boolean_mask(logits, augs)
augLabels = tf.boolean_mask(labels, augs)
noaugLoss = tf.reduce_mean(
tf.nn.sparse_softmax_cross_entropy_with_logits(noAugLogits, noAugLabels))
augLoss = tf.reduce_mean(
tf.nn.sparse_softmax_cross_entropy_with_logits(augLogits, augLabels))
return noaugLoss * PENALTY_COEFFICIENT + augLoss
def aug(logits, labels):
return tf.reduce_mean(
tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels))
return tf.cond(pred, lambda: noaug(logits, labels, augs), lambda: aug(logits, labels))
Run Code Online (Sandbox Code Playgroud)
正如你所看到的,我使用了一个numpy数组变量augs,在相应的位置使用1和0来指示一批样本中的样本是增强的还是非增强的。然后我将变量转换为 bool 张量,并将其用作 tf.boolen_mask() 的 bool 掩码来获取增强和非增强样本并分别计算损失。
| 归档时间: |
|
| 查看次数: |
3629 次 |
| 最近记录: |