我正在尝试使用 aitextgen 在数据集上微调 774M gpt 2。不幸的是,无论我做什么,训练都会失败,因为只有 80 MB 的 vram 可用。如何在不重新启动运行时的情况下清除 vram,并可能防止 vram 已满?
vram google-colaboratory gpt-2 fine-tuning
fine-tuning ×1
google-colaboratory ×1
gpt-2 ×1
vram ×1