Ran*_*Das 5 convolution backpropagation conv-neural-network keras
在 CNN 中,卷积操作在输入矩阵上“卷积”一个内核矩阵。现在,我知道全连接层如何利用梯度下降和反向传播来训练。但是核矩阵是如何随时间变化的呢?
在 Keras 文档中,有多种初始化内核矩阵的方法,如此处所述。但是,我很想知道它是如何训练的?如果它也使用反向传播,那么有没有详细描述训练过程的论文?
这篇文章也提出了一个类似的问题,但没有答案。
| 归档时间: |
|
| 查看次数: |
949 次 |
| 最近记录: |