wei*_*_yu -1 neural-network deep-learning
我有点困惑隐藏层之间激活的用途是什么,我知道隐藏层和输出之间的softmax函数是将概率挤压到[0,1],但隐藏层之间的sigmoid函数有什么用?
目的是向网络添加非线性行为,没有它可以表示的函数数量较少,如果没有非线性激活函数,网络是完全线性的,这对大多数人来说都不是很有用.问题.
添加非线性激活的每个层也有助于网络输出的非线性行为.这是添加更多层提高准确性的一个原因,因为网络可以更好地表示不同的功能.
归档时间: |
|
查看次数: |
446 次 |
最近记录: |