小编Dan*_*nny的帖子

RELU的神经网络反向传播

我正在尝试用RELU实现神经网络.

输入层 - > 1隐藏层 - > relu - >输出层 - > softmax层

以上是我的神经网络的架构.我很担心这个relu的反向传播.对于RELU的导数,如果x <= 0,则输出为0.如果x> 0,则输出为1.因此,当您计算梯度时,这是否意味着如果x <= 0,我会消除梯度.

有人可以一步一步地解释我的神经网络架构的反向传播吗?

backpropagation neural-network

28
推荐指数
4
解决办法
4万
查看次数

标签 统计

backpropagation ×1

neural-network ×1