zre*_*bot 3 machine-learning neural-network gradient-descent
你能解释下面的话,它真的让我很困惑.1.iterations 2.gradient descent steps 3.epoch 4.batch size.
在神经网络术语中:
示例:如果您有1000个训练样例,并且批量大小为500,则需要2次迭代才能完成1个时期.
梯度下降:
请观看此讲座: https://www.coursera.org/learn/machine-learning/lecture/8SpIM/gradient-descent(来源:Andrew ng,Coursera)
那么让我们看看梯度下降的作用.想象一下,这就像一些草地公园的景观,有两座像这样的山丘,我想让我们想象一下,你正站在山上的那个地方,在你公园的这座小红山上.

事实证明,如果你站在山坡上的那一点,你会四处寻找,你会发现最好的方向是向下走一小步,大致就是那个方向.

好的,现在你正处在你山上的这个新点.再一次,你会四处寻找并告诉我应该采取什么方向才能让一个小宝宝走下坡路?如果你这样做并采取另一步,你就朝着这个方向迈出了一步.
然后你继续前进.从这个新的角度来看,你可以看看周围的最快速度.再迈出一步,再迈出一步,直到你在这里收敛到这个局部最小值.
在渐变下降中,我们要做的是我们将绕360度旋转,看看我们周围的一切,然后问,如果我朝某个方向走一小步,我想要走下坡路我尽快把这个小宝宝带进去的方向是什么?如果我想下楼,所以我想尽快走下这座山.
我希望你现在了解梯度下降步骤的意义.希望这有用!