小编Rak*_*eek的帖子

为什么在神经网络中几乎每个激活函数都会在负输入值处饱和

这可能是一个非常基本/微不足道的问题。

对于负输入,

  1. ReLu 激活函数的输出为零
  2. Sigmoid 激活函数的输出为零
  3. Tanh 激活函数的输出为 -1

下面提到的是我的问题:

  1. 为什么上述所有激活函数都对负输入值饱和。
  2. 如果我们想预测负目标值,是否有任何激活函数。

谢谢你。

neural-network deep-learning keras activation-function

5
推荐指数
1
解决办法
3878
查看次数