Pytorch GPU 内存随着每个批次不断增加

Nag*_*S N 5 python memory-leaks pytorch

我正在根据图像训练 CNN 模型。最初,我正在对大小的图像块进行训练(256, 256),一切都很好。然后我更改了数据加载器以加载全高清图像(1080, 1920),并在经过一些处理后裁剪图像。在这种情况下,GPU 内存会随着每个批次而不断增加。为什么会发生这种情况?

PS:在跟踪损失时,我loss.detach().item()这样做是为了使损失不会保留在图表中。

Nag*_*S N 3

正如此处所建议的,删除输入、输出和丢失数据会有所帮助。

此外,我还有字典形式的数据。仅删除字典是不够的。我必须迭代 dict 元素并删除所有元素。