如何在 CNN 中训练卷积核?

Ran*_*Das 5 convolution backpropagation conv-neural-network keras

在 CNN 中,卷积操作在输入矩阵上“卷积”一个内核矩阵。现在,我知道全连接层如何利用梯度下降和反向传播来训练。但是核矩阵是如何随时间变化的呢?

在 Keras 文档中,有多种初始化内核矩阵的方法,如此处所述。但是,我很想知道它是如何训练的?如果它也使用反向传播,那么有没有详细描述训练过程的论文?

这篇文章也提出了一个类似的问题,但没有答案。

iba*_*ond 4

这里有一篇关于卷积层反向传播的详细解释的文章。简而言之,它也是梯度下降,就像 FC 层一样。事实上,您可以有效地将卷积层转变为完全连接层,如此处所述