最近在研究Pytorch和backward函数的封装。我明白如何使用它,但是当我尝试时
x = Variable(2*torch.ones(2, 2), requires_grad=True)
x.backward(x)
print(x.grad)
Run Code Online (Sandbox Code Playgroud)
我预计
tensor([[1., 1.],
[1., 1.]])
Run Code Online (Sandbox Code Playgroud)
因为它是恒等函数。然而,它返回
tensor([[2., 2.],
[2., 2.]]).
Run Code Online (Sandbox Code Playgroud)
为什么会出现这种情况?
当最终张量中有多个值时可以使用 autograd 吗?
我尝试了以下方法。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
print(y)
y.backward()
Run Code Online (Sandbox Code Playgroud)
抛出错误
RuntimeError: grad can be implicitly created only for scalar outputs
Run Code Online (Sandbox Code Playgroud)
然而,以下工作。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
y = torch.sum(y)
print(y)
y.backward()
print(x.grad)
Run Code Online (Sandbox Code Playgroud)
输出为
tensor(41., grad_fn=<SumBackward0>)
tensor([ 8., 10.])
Run Code Online (Sandbox Code Playgroud)
我在这里遗漏了什么,或者我可以继续假设 autograd 仅在最终张量中有单个值时才有效?