我想知道,为什么在我看到的大多数GAN模型中(至少在MNIST中),激活函数(对于鉴别器和生成器)都是tanh?ReLu效率更高吗?(对于预测网络,我一直都会阅读)
谢谢!
neural-network deep-learning tensorflow
deep-learning ×1
neural-network ×1
tensorflow ×1