相关疑难解决方法(0)

如何计算最佳批量大小

有时我遇到一个问题:

OOM在分配形状的张量时

EQ

OOM在分配形状的张量时(1024,100,160)

1024是我的批量大小,我不知道剩下的是什么.如果我减少批量大小或模型中的神经元数量,它运行正常.

是否有基于模型和GPU内存计算最佳批量大小的通用方法,因此程序不会崩溃?

编辑

由于我的问题可能看起来不清楚,让我按照他的方式说:我希望我的模型可以使用最大的批量大小,这将适合我的GPU内存并且不会使程序崩溃.

编辑2

对于那些因为过于宽泛而投票结束这个问题的人:这个问题到底有多宽?有一些算法可以选择一部分数据放入GPU内存.它显然是不完美的,因为数据有时会超过GPU内存.询问算法如何工作,以防止随机崩溃,对我来说似乎很合理.

machine-learning neural-network gradient-descent deep-learning keras

16
推荐指数
3
解决办法
2万
查看次数