PyTorch 的“no_grad”函数在 TensorFlow/Keras 中的等价物是什么?

Jen*_*sun 5 python keras tensorflow pytorch

在编写机器学习模型时,我发现自己需要计算指标,或者在回调中运行额外的前向传递以实现可视化目的。在PyTorch中,我使用 执行此操作torch.no_grad(),这可以防止计算梯度,因此这些操作不会影响优化。

  1. 这种机制在TensorFlow/Keras中如何工作?
  2. Keras模型是可调用的。所以,类似的事情model(x)是可能的。但是,也可以说model.predict(x),这似乎也援引了call. 两者有区别吗?

小智 6

张量流等效为tf.stop_gradient

另外不要忘记,Keras 在使用预测(或仅通过调用模型)时不会计算梯度__call__

  • 通过 `__call__` 调用和使用 `.predict` 调用有区别吗? (2认同)