小编Asj*_*aza的帖子

为什么有些人将两个不同网络的参数链接起来并使用相同的优化器进行训练?

我正在查看 CycleGAN 的官方 pytorch 实现,作者在那里链接了两个网络的参数,并为两个网络使用了一个优化器。这是如何运作的?是否比对两个不同的网络使用两个不同的优化器更好?

all_params = chain(module_a.parameters(), module_b.parameters())
optimizer = torch.optim.Adam(all_params)
Run Code Online (Sandbox Code Playgroud)

python deep-learning pytorch generative-adversarial-network

5
推荐指数
1
解决办法
475
查看次数