我读到 ResNet 通过使用跳过函数解决了梯度消失问题。但是它们不是已经使用 RELU 解决了吗?关于 ResNet 是否还有其他一些重要的事情我遗漏了,或者即使在使用 RELU 之后也会出现梯度消失问题?
optimization backpropagation neural-network deep-learning activation-function
activation-function ×1
backpropagation ×1
deep-learning ×1
neural-network ×1
optimization ×1