小编Set*_*dge的帖子

训练神经网络时哪些层应该经历“dropout”?

我有这个带有ReLU 隐藏层激活和Sigmoid 输出层激活的多层网络。我想实现dropout(每个神经元都有机会在训练期间只输出零)。

我想我可以在训练期间将这种噪声作为 ReLU 激活例程的一部分引入并完成它,但我不确定原则上dropout 是否扩展到可见/输出层。


(在我看来,dropout 消除了过拟合,因为它有效地使网络成为许多较小网络的平均值。我只是不确定输出层)

neural-network

5
推荐指数
1
解决办法
3454
查看次数

标签 统计

neural-network ×1