我在 Colab Pro+(具有高 RAM 选项)上运行神经网络时发现了这个问题。
运行时错误:CUDA 内存不足。尝试分配 8.00 GiB(GPU 0;15.90 GiB 总容量;12.04 GiB 已分配;2.72 GiB 空闲;PyTorch 总共保留 12.27 GiB)如果保留内存 >> 已分配内存,请尝试设置 max_split_size_mb 以避免碎片。请参阅内存管理和 PYTORCH_CUDA_ALLOC_CONF 的文档
我已经将批量大小减少到 2。我使用该格式上传数据h5py。
此时,我认为我唯一可以尝试的就是设置max_split_size_mb.
我找不到任何有关如何实施max_split_size_mb. PyTorch文档对我来说不清楚。