luk*_*ree 2 python neural-network keras tensorflow
我有一些问题使这个自定义损失函数(它检查y_pred数据是否与 提供的实际排序索引一致y_true)工作:
def custom_objective(y_true, y_pred):
y_true = tf.cast(y_true, tf.float32)
ordered_output = tf.cast(tf.nn.top_k(-y_pred, k=5)[1], tf.float32)
return tf.sqrt(tf.reduce_mean(tf.square(ordered_output - y_true), axis=-1))
Run Code Online (Sandbox Code Playgroud)
我可以使用示例数据正确运行它:
with tf.Session() as sess:
print(custom_objective(tf.constant([0, 1, 2, 3, 4, 5]),
tf.constant([0.0, 0.9, 0.2, 0.3, 0.5, 0.8])).eval()) # 1.82574
Run Code Online (Sandbox Code Playgroud)
但不知何故,如果我在 中使用它就不起作用model.compile,因为它引发了:
/Users/luca/.virtualenvs/python3/lib/python3.6/site-packages/tensorflow/python/framework/tensor_util.py in make_tensor_proto(values, dtype, shape, verify_shape)
358 else:
359 if values is None:
--> 360 raise ValueError("None values not supported.")
361 # if dtype is provided, forces numpy array to be the type
362 # provided if possible.
ValueError: None values not supported.
Run Code Online (Sandbox Code Playgroud)
请注意,如果我更改ordered_output = tf.cast(tf.nn.top_k(-y_pred, k=5)[1], tf.float32)为ordered_output = -y_pred模型编译正常并开始正确训练(但这显然不是我想要的损失函数),则我的训练测试集中没有“无”值。
我有一种微妙的感觉,top_k在损失函数中使用可能有问题,因为我不知道它是如何可微的,但我没有更好的想法来评估预测排序的差异。提示/想法/论文/参考?:)
这可能会被否决,因为我不会真正修复您的代码,但这里什么也没有:
事实上,我不相信您可以使用 top_k 作为目标函数。就像您不能将准确性用作目标函数一样。
原因是数学上的。即使 keras、tensorflow、theano 和 co. 是 AI 的绝佳工具,允许每个人摆弄神经网络,但后者仍然是非常复杂的数学工具。这些数学很好地隐藏在幕后,但在尝试比预制工具走得更远时,您应该意识到它们。
训练网络时发生的事情是,您计算网络在示例上的错误程度,然后反向传播该错误以从中学习。反向传播背后的算法是优化器,更准确地说,它们是基于梯度的优化器。计算梯度需要区分我们正在优化的函数,损失/目标函数。这意味着目标必须是可微的. 准确度不是可微函数,它以 0 到 1 之间的实数作为输入,并输出阶跃函数:如果 x<0.5,则为 0,如果 x>0.5,则为 1。该函数不可微,因为我们无法在 0.5 中获得它的梯度。top_k 函数是某种精度函数。所以确实在我看来你不能在目标中使用它,因为在引擎盖下,智能 tensorflow 必须计算你的函数的梯度。
我希望这有帮助 :)
| 归档时间: |
|
| 查看次数: |
3112 次 |
| 最近记录: |