当 PyTorch 中的 Cuda 变量被分配新值时,它再次成为 CPU 变量(如下面的代码所示)。那么这种情况下,之前GPU上的变量占用的内存是否会被自动释放呢?
import torch
t1 = torch.empty(4,5)
if torch.cuda.is_available():
t1 = t1.cuda()
print(t1.is_cuda)
t1 = torch.empty(4,5)
print(t1.is_cuda)
Run Code Online (Sandbox Code Playgroud)
上述代码的输出是:
True
False
Run Code Online (Sandbox Code Playgroud)