Bla*_*343 5 vram google-colaboratory gpt-2 fine-tuning
我正在尝试使用 aitextgen 在数据集上微调 774M gpt 2。不幸的是,无论我做什么,训练都会失败,因为只有 80 MB 的 vram 可用。如何在不重新启动运行时的情况下清除 vram,并可能防止 vram 已满?
Joy*_*dal 10
另一种解决方案是使用这些代码片段。
1.
!pip install numba
Run Code Online (Sandbox Code Playgroud)
from numba import cuda
# all of your code and execution
cuda.select_device(0)
cuda.close()
Run Code Online (Sandbox Code Playgroud)
您的问题已在 Tensorflow 官方 github 中讨论。https://github.com/tensorflow/tensorflow/issues/36465
更新: @alchemy 报告说,在打开方面这是无法恢复的。您可以尝试下面的代码。
device = cuda.get_current_device()
device.reset()
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
9703 次 |
最近记录: |