我正在尝试用RELU实现神经网络.
输入层 - > 1隐藏层 - > relu - >输出层 - > softmax层
以上是我的神经网络的架构.我很担心这个relu的反向传播.对于RELU的导数,如果x <= 0,则输出为0.如果x> 0,则输出为1.因此,当您计算梯度时,这是否意味着如果x <= 0,我会消除梯度.
有人可以一步一步地解释我的神经网络架构的反向传播吗?
backpropagation neural-network
backpropagation ×1
neural-network ×1