小编zaf*_*rya的帖子

loss.backward() 与模型的适当参数有何关系?

我是 PyTorch 的新手,我无法理解如何loss知道通过 计算梯度loss.backward()

当然,我知道参数需要具有,requires_grad=True并且我知道它设置x.grad为适当的梯度只是为了优化器稍后执行梯度更新。

优化器在实例化时链接到模型参数,但损失永远不会链接到模型。

我一直在浏览这个线程,但我认为没有人清楚地回答它,并且发起该线程的人似乎与我有同样的问题。

当我有两个不同的网络、两个不同的损失函数和两个不同的优化器时会发生什么。我可以轻松地将优化器链接到每个网络,但是如果我从不将它们链接在一起,损失函数如何知道如何计算每个适当网络的梯度?

machine-learning deep-learning pytorch

5
推荐指数
1
解决办法
2515
查看次数

标签 统计

deep-learning ×1

machine-learning ×1

pytorch ×1