我经常读到,前馈和递归神经网络(RNN)之间存在根本区别,因为缺乏内部状态,因此前馈网络中存在短期记忆.这对我来说似乎有点合情合理.
然而,当通过时间算法反向传播学习递归神经网络时,如果我理解正确,则将循环网络转换为等效的前馈网络.
这意味着,实际上没有根本的区别.为什么RNN在某些任务(图像识别,时间序列预测......)中的表现要比深度前馈网络好?
machine-learning neural-network
machine-learning ×1
neural-network ×1