blu*_*nox 14 python neural-network deep-learning pytorch autograd
我想知道如何处理PyTorch中的就地操作.我记得在autograd中使用就地操作一直存在问题.
实际上,我很惊讶下面这段代码可以工作,即使我没有测试它,我相信这段代码会引发版本错误0.3.1
.
基本上我想做的是将张量向量的某个位置设置为某个值,如:
my_tensor[i] = 42
Run Code Online (Sandbox Code Playgroud)
工作示例代码:
# test parameter a
a = torch.rand((2), requires_grad=True)
print('a ', a)
b = torch.rand(2)
# calculation
c = a + b
# performing in-place operation
c[0] = 0
print('c ', c)
s = torch.sum(c)
print('s ', s)
# calling backward()
s.backward()
# optimizer step
optim = torch.optim.Adam(params=[a], lr=0.5)
optim.step()
# changed parameter a
print('changed a', a)
Run Code Online (Sandbox Code Playgroud)
输出:
a tensor([0.2441, 0.2589], requires_grad=True)
c tensor([0.0000, 1.1511], grad_fn=<CopySlices>)
s tensor(1.1511, grad_fn=<SumBackward0>)
changed a tensor([ 0.2441, -0.2411], requires_grad=True)
Run Code Online (Sandbox Code Playgroud)
很明显在版本中0.4.1
.这没关系没有警告或错误.
参考文档中的这篇文章:autograd-mechanics
在autograd中支持就地操作是一件很难的事情,我们不鼓励在大多数情况下使用它们.Autograd积极的缓冲区释放和重用使其非常高效,并且在就地操作实际上会大幅降低内存使用量的情况非常少.除非您在巨大的内存压力下运行,否则您可能永远不需要使用它们.
但即使它有效,在大多数情况下也不鼓励使用就地操作.
所以我的问题是:
就地操作的使用对性能有多大影响?
在我想将张量的一个元素设置为某个值的情况下,如何使用就地操作?
提前致谢!
我不确定就地操作对性能有多大影响,但我可以解决第二个查询。您可以使用掩码代替就地操作。
a = torch.rand((2), requires_grad=True)
print('a ', a)
b = torch.rand(2)
# calculation
c = a + b
# performing in-place operation
mask = np.zeros(2)
mask[1] =1
mask = torch.tensor(mask)
c = c*mask
...
Run Code Online (Sandbox Code Playgroud)