神经网络中回归模型的输出层激活函数

use*_*738 18 regression neural-network activation-function

这些天我一直在尝试使用神经网络.我遇到了一个关于要使用的激活功能的一般问题.这可能是一个众所周知的事实,但我无法理解.我见过的很多例子和论文都在研究分类问题,他们要么使用sigmoid(在二进制情况下)或softmax(在多类情况下)作为输出层中的激活函数,这是有道理的.但我还没有看到回归模型的输出层中使用的任何激活函数.

所以我的问题是,我们不会在回归模型的输出层中使用任何激活函数,因为我们不希望激活函数限制或限制值.输出值可以是任意数字,也可以是数千,因此像sigmoid到tanh的激活函数没有意义.或者还有其他原因吗?或者我们实际上可以使用一些针对这类问题的激活函数?

Vai*_*v K 11

对于线性回归类型的问题,您可以简单地创建没有任何激活函数的输出图层,因为我们对数值感兴趣而没有任何变换.

更多信息 :

https://machinelearningmastery.com/regression-tutorial-keras-deep-learning-library-python/

用于分类:您可以使用sigmoid,tanh,Softmax等.


Ale*_* R. 9

如果你有一个Sigmoid作为NN输出层的激活函数,你永远不会得到任何小于0且大于1的值.

基本上,如果您尝试预测的数据分布在该范围内,您可以使用Sigmoid函数进行测试,并测试您的预测是否在训练集上表现良好.

更一般地说,在预测数据时,您应该以最有效的方式提出代表您的数据的函数.

因此,如果你的真实数据不适合Sigmoid函数,你必须考虑任何其他函数(例如一些多项式函数,或周期函数或任何其他函数或它们的组合),但你也应该始终关心你将如何轻松地构建你的成本函数和评估衍生品.