我是 PyTorch 的新手,我无法理解如何loss
知道通过 计算梯度loss.backward()
?
当然,我知道参数需要具有,requires_grad=True
并且我知道它设置x.grad
为适当的梯度只是为了优化器稍后执行梯度更新。
优化器在实例化时链接到模型参数,但损失永远不会链接到模型。
我一直在浏览这个线程,但我认为没有人清楚地回答它,并且发起该线程的人似乎与我有同样的问题。
当我有两个不同的网络、两个不同的损失函数和两个不同的优化器时会发生什么。我可以轻松地将优化器链接到每个网络,但是如果我从不将它们链接在一起,损失函数如何知道如何计算每个适当网络的梯度?