小编kri*_*sad的帖子

如果使用 RELU 激活函数解决梯度消失问题,为什么 ResNet 的主要目的是?

我读到 ResNet 通过使用跳过函数解决了梯度消失问题。但是它们不是已经使用 RELU 解决了吗?关于 ResNet 是否还有其他一些重要的事情我遗漏了,或者即使在使用 RELU 之后也会出现梯度消失问题?

optimization backpropagation neural-network deep-learning activation-function

2
推荐指数
1
解决办法
1748
查看次数