使 CUDA 内存不足

Rya*_*an 5 gpu nvidia deep-learning pytorch

我正在尝试训练一个网络,但我得到了,我将批量大小设置为 300,并且收到此错误,但即使我将其减少到 100,我仍然收到此错误,更令人沮丧的是,在 ~1200 个图像上运行 10 epoch大约需要 40 分钟,请提出问题所在以及如何加快该过程!任何提示都会非常有帮助,提前致谢。

---------------------------------------------------------------------------
RuntimeError                              Traceback (most recent call last)
<ipython-input-31-3b43ff4eea72> in <module>()
      5         labels = Variable(labels).cuda()
      6 
----> 7         optimizer.zero_grad()
      8         outputs = cnn(images)
      9         loss = criterion(outputs, labels)

/usr/local/lib/python3.5/dist-packages/torch/optim/optimizer.py in     zero_grad(self)
    114                 if p.grad is not None:
    115                     if p.grad.volatile:
--> 116                         p.grad.data.zero_()
    117                     else:
    118                         data = p.grad.data

RuntimeError: cuda runtime error (2) : out of memory at /pytorch  /torch/lib/THC/generic/THCTensorMath.cu:35`
Run Code Online (Sandbox Code Playgroud)

即使我的 GPU 是免费的

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.111                Driver Version: 384.111                       |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 108...  Off  | 00000000:05:00.0 Off |                   N/A |
| 23%   18C    P8    15W / 250W |  10864MiB / 11172MiB |      0%      Default |
    +-------------------------------+----------------------+----------------------+

|   1  GeForce GTX 108...  Off  | 00000000:08:00.0 Off |                  N/A |    
 | 23%   20C    P8    15W / 250W |     10MiB / 11172MiB |          0%      Default
+-------------------------------+----------------------+---------------
Run Code Online (Sandbox Code Playgroud)

pro*_*sti 3

相当普遍的问题。以下是我对这个问题的看法。

尝试将批量大小(批量数)设置为 1。如果这解决了问题,您可以尝试找到最佳批量大小。

如果bs=1您收到“RuntimeError:cuda运行时错误(2):内存不足”:

  • 不要使用太大的线性层。 线性层 nn.Linear(m, n) 使用 O(nm)O(nm)O(nm) 内存:也就是说,权重的内存需求与特征数量成二次方缩放,同时还考虑梯度。

  • 不要在整个训练循环中积累历史记录。 如果你在一个循环内递归地将损失求和 10000 或更多,你的反向传播评估将是巨大的;占用大量内存。

  • del明确删除不需要的张量

  • ps -elf | grep pythonkill -9 [pid]如果您怀疑其他 Python 进程正在占用您的内存,在 GPU 上运行 python 进程。