小编Hak*_*ata的帖子

神经网络梯度下降中的反向传播与线性回归

我试图理解“反向传播”,因为它在使用梯度下降优化的神经网络中使用。通读文献似乎可以做一些事情。

  1. 使用随机权重开始并获取误差值
  2. 使用这些权重对损失函数执行梯度下降以获得新的权重。
  3. 使用这些新权重更新权重,直到损失函数最小化。

上述步骤似乎是解决线性模型(例如回归)的精确过程?Andrew Ng 在 Coursera 上关于机器学习的优秀课程正是针对线性回归进行的。

因此,我试图了解 BackPropagation 是否除了损失函数上的梯度下降之外还有其他作用。如果没有,为什么仅在神经网络的情况下引用它,而为什么不在 GLM(广义线性模型)中引用它。他们似乎都在做同样的事情——我可能会错过什么?

machine-learning linear-regression backpropagation neural-network gradient-descent

5
推荐指数
1
解决办法
2895
查看次数