如何在 keras 损失函数中使用 tf.nn.top_k?

luk*_*ree 2 python neural-network keras tensorflow

我有一些问题使这个自定义损失函数(它检查y_pred数据是否与 提供的实际排序索引一致y_true)工作:

def custom_objective(y_true, y_pred):
    y_true = tf.cast(y_true, tf.float32)
    ordered_output = tf.cast(tf.nn.top_k(-y_pred, k=5)[1], tf.float32)
    return tf.sqrt(tf.reduce_mean(tf.square(ordered_output - y_true), axis=-1))
Run Code Online (Sandbox Code Playgroud)

我可以使用示例数据正确运行它:

with tf.Session() as sess:
    print(custom_objective(tf.constant([0, 1, 2, 3, 4, 5]), 
                           tf.constant([0.0, 0.9, 0.2, 0.3, 0.5, 0.8])).eval())  # 1.82574
Run Code Online (Sandbox Code Playgroud)

但不知何故,如果我在 中使用它就不起作用model.compile,因为它引发了:

/Users/luca/.virtualenvs/python3/lib/python3.6/site-packages/tensorflow/python/framework/tensor_util.py in make_tensor_proto(values, dtype, shape, verify_shape)
    358   else:
    359     if values is None:
--> 360       raise ValueError("None values not supported.")
    361     # if dtype is provided, forces numpy array to be the type
    362     # provided if possible.

ValueError: None values not supported.
Run Code Online (Sandbox Code Playgroud)

请注意,如果我更改ordered_output = tf.cast(tf.nn.top_k(-y_pred, k=5)[1], tf.float32)ordered_output = -y_pred模型编译正常并开始正确训练(但这显然不是我想要的损失函数),则我的训练测试集中没有“无”值。

我有一种微妙的感觉,top_k在损失函数中使用可能有问题,因为我不知道它是如何可微的,但我没有更好的想法来评估预测排序的差异。提示/想法/论文/参考?:)

Nas*_*Ben 5

这可能会被否决,因为我不会真正修复您的代码,但这里什么也没有:

事实上,我不相信您可以使用 top_k 作为目标函数。就像您不能将准确性用作目标函数一样。

原因是数学上的。即使 keras、tensorflow、theano 和 co. 是 AI 的绝佳工具,允许每个人摆弄神经网络,但后者仍然是非常复杂的数学工具。这些数学很好地隐藏在幕后,但在尝试比预制工具走得更远时,您应该意识到它们。

训练网络时发生的事情是,您计算网络在示例上的错误程度,然后反向传播该错误以从中学习。反向传播背后的算法是优化器,更准确地说,它们是基于梯度的优化器。计算梯度需要区分我们正在优化的函数,损失/目标函数。这意味着目标必须是可微的. 准确度不是可微函数,它以 0 到 1 之间的实数作为输入,并输出阶跃函数:如果 x<0.5,则为 0,如果 x>0.5,则为 1。该函数不可微,因为我们无法在 0.5 中获得它的梯度。top_k 函数是某种精度函数。所以确实在我看来你不能在目标中使用它,因为在引擎盖下,智能 tensorflow 必须计算你的函数的梯度。

我希望这有帮助 :)