在 Google Colab 中的 pytorch 下使 CUDA 内存不足

Sha*_*von 6 computer-vision deep-learning

我试图在谷歌colab中复制此处描述的工作( https://www.analyticsvidhya.com/blog/2019/02/building-crowd-counting-model-python/ )。不幸的是,一开始它可以工作,但一段时间后,它显示这行代码的 cuda 内存不足错误。

output = model(img.unsqueeze(0))
Run Code Online (Sandbox Code Playgroud)

这是错误描述:

RuntimeError: CUDA out of memory. Tried to allocate 98.00 MiB (GPU 0; 11.17 GiB total capacity; 10.78 GiB already allocated; 40.81 MiB free; 34.25 MiB cached)
Run Code Online (Sandbox Code Playgroud)

我尝试在不同的谷歌帐户中运行此代码,但显示相同的错误。

小智 2

您还可以通过降低批量大小而不是图像分辨率来解决问题 - 因为降低后者会影响分类准确性