CNN中的Conv层和Pooling层有什么区别?

ame*_*nbo 3 neural-network conv-neural-network

汇总可以被视为卷积,无论是最大/平均,对吧?

不同之处在于conv具有优化参数,但汇集却没有,对吧? - 例如,在学习过程中,池中过滤的权重不会改变.

我也想知道转换和汇集的目标之间区别.

为什么我们使用每一层?如果我们不使用每一层,会发生什么?

Cut*_*son 9

卷积层具有要学习的参数(即您在每一步更新的权重),而池化层则没有——它只是应用一些给定的函数,例如最大函数。


Tho*_*s W 5

卷积层

卷积层用于使用感受域检测输入字段中的多个子区域中的(多个)图案.

汇集层

汇集层用于逐渐减小表示的空间大小,以减少网络中的参数数量和计算量,并因此还控制过度拟合.

直觉是特征的确切位置不如其相对于其他特征的粗略位置重要.


另外,你说'在学习期间过滤的权重没有改变',并不总是必须加权.例如,在MAX_POOLING图层中,不需要权重:

在此输入图像描述

所以我真的不明白你的意思是'那个转化器具有优化参数',我想你让它们转过身来.