深层学习隐藏层之间的激活功能?

wei*_*_yu -1 neural-network deep-learning

我有点困惑隐藏层之间激活的用途是什么,我知道隐藏层和输出之间的softmax函数是将概率挤压到[0,1],但隐藏层之间的sigmoid函数有什么用? 在此输入图像描述

Mat*_*gro 5

目的是向网络添加非线性行为,没有它可以表示的函数数量较少,如果没有非线性激活函数,网络是完全线性的,这对大多数人来说都不是很有用.问题.

添加非线性激活的每个层也有助于网络输出的非线性行为.这是添加更多层提高准确性的一个原因,因为网络可以更好地表示不同的功能.

  • @TamaMcGlinn cheersmate正在谈论多个线性层,对于xor,你需要多个非线性层.不一样. (2认同)