相关疑难解决方法(0)

为什么仅在输出层而不是在隐藏层中使用softmax?

我见过的用于分类任务的神经网络的大多数例子都使用softmax层作为输出激活函数.通常,其他隐藏单元使用sigmoid,tanh或ReLu函数作为激活函数.据我所知,在这里使用softmax函数也可以用数学方法计算出来.

  • 不使用softmax函数作为隐藏层激活函数的理论依据是什么?
  • 有没有关于此的出版物,引用什么?

classification machine-learning neural-network softmax activation-function

14
推荐指数
2
解决办法
8440
查看次数