美国有线电视新闻网的ReLu和Dropout

use*_*676 16 neural-network deep-learning dropout

我正在研究卷积神经网络.我对CNN中的某些层感到困惑.

关于ReLu ......我只知道它是无限逻辑函数的总和,但是ReLu没有连接到任何上层.为什么我们需要ReLu,它是如何工作的?

关于辍学......辍学如何运作?我听了G. Hinton的视频讲话.他说,有一种策略可以在训练权重时随机忽略一半节点,并在预测时减半.他说,它的灵感来自随机森林,与计算这些随机训练模型的几何平均值完全相同.

这种策略与辍学一样吗?

有人可以帮我解决这个问题吗?

Hun*_*gry 23

ReLu: 整流器功能是激活函数 f(x)= Max(0,x),它可以被神经元使用,就像任何其他激活函数一样,使用整流器激活函数的节点称为ReLu节点.使用它的主要原因是,与更常规的激活函数(如S形和双曲正切)相比,它的计算效率更高,而不会对泛化精度产生显着影响.使用整流器激活功能代替线性激活功能以向网络添加非线性,否则网络将仅能够计算线性函数.

辍学: 是的,所描述的技术与辍学相同.随机忽略节点是有用的原因是因为它防止了节点之间出现的相互依赖性(即节点不学习依赖于来自另一节点的输入值的函数),这允许网络更多地学习更健壮的关系.实施辍学与从网络委员会获得平均水平的影响大致相同,但是所需时间和存储的成本要低得多.

  • ReLu只是一个神经元,它实现了整流器激活函数*max(0,n)*,而不是一个全新的层.虽然报告没有说明确切的细节,但看起来这个激活函数用于网络中的每个神经元,包括卷积层和完全连接层. (4认同)