小编Moh*_*out的帖子

如果我不能在神经网络中进行大批量处理,如何补偿

我正在尝试运行来自 GitHub 的动作识别代码。原始代码使用 4 个 GPU 的批处理大小 128。我只有两个 GPU,所以我无法匹配它们的 bacth 大小。无论如何,我可以批量补偿这种差异吗?我在某处看到 iter_size 可能会根据公式进行补偿effective_batchsize= batch_size*iter_size*n_gpu。这个公式中的 iter_size 是多少?我使用 PYthorch 而不是 Caffe。

artificial-intelligence neural-network deep-learning pytorch

0
推荐指数
1
解决办法
1656
查看次数