小编Ben*_*arr的帖子

生成对抗网络tanh?

我想知道,为什么在我看到的大多数GAN模型中(至少在MNIST中),激活函数(对于鉴别器和生成器)都是tanh?ReLu效率更高吗?(对于预测网络,我一直都会阅读)

谢谢!

neural-network deep-learning tensorflow

8
推荐指数
2
解决办法
4364
查看次数

标签 统计

deep-learning ×1

neural-network ×1

tensorflow ×1