我可以在colab中清理GPU显存吗

Bla*_*343 5 vram google-colaboratory gpt-2 fine-tuning

我正在尝试使用 aitextgen 在数据集上微调 774M gpt 2。不幸的是,无论我做什么,训练都会失败,因为只有 80 MB 的 vram 可用。如何在不重新启动运行时的情况下清除 vram,并可能防止 vram 已满?

Joy*_*dal 10

另一种解决方案是使用这些代码片段。

1.

!pip install numba
Run Code Online (Sandbox Code Playgroud)
  1. 然后:
from numba import cuda
# all of your code and execution
cuda.select_device(0)
cuda.close()
Run Code Online (Sandbox Code Playgroud)

您的问题已在 Tensorflow 官方 github 中讨论。https://github.com/tensorflow/tensorflow/issues/36465

更新: @alchemy 报告说,在打开方面这是无法恢复的。您可以尝试下面的代码。

device = cuda.get_current_device() 
device.reset()
Run Code Online (Sandbox Code Playgroud)

  • 这是不可恢复的..使用 `device = cuda.get_current_device(); device.reset()` /sf/answers/5146238611/ (3认同)

Joy*_*dal 0

  1. !nvidia-smi在笔记本块内运行命令。
  2. 查找您不需要删除以清理 vram 的 GPU 的进程 ID。然后运行命令!kill process_id

它应该对你有帮助。