小编for*_*hia的帖子

为什么使用tanh激活MLP的功能?

我个人研究神经网络的理论并得到一些问题.

在许多书籍和参考文献中,对于隐藏层的激活功能,使用了超切线函数.

书籍提出了一个非常简单的原因,即tanh函数的线性组合可以描述具有给定误差的几乎所有函数形状.

但是,有一个问题.

  1. 这是使用tanh功能的真正原因吗?
  2. 如果那时,它是使用tanh功能的唯一原因吗?
  3. 如果那么,tanh功能是唯一能做到这一点的功能吗?
  4. 如果没有,真正的原因是什么?

我在这里继续思考...请帮助我摆脱这个心理(?...)陷阱!

machine-learning neural-network hyperbolic-function

19
推荐指数
3
解决办法
2万
查看次数