据我所知,输入元组从卷积块进入。所以如果我们想改变 input_tuple 的形状,修改卷积是有意义的。为什么我们需要 include_top=False 并删除最后的全连接层?
另一方面,如果我们有不同数量的类,Keras 可以选择使用 no_of_classes 更改 softmax 层
我知道我是这里缺少某些东西的人。请帮我
示例:对于 Inception Resnet V2
input_shape:可选形状元组,仅在 include_top 为 False 时指定(否则输入形状必须为 (299, 299, 3)(使用 'channels_last' 数据格式)或 (3, 299, 299)(使用 'channels_first' data format). 它应该正好有3个输入通道,宽度和高度应该不小于139。例如(150, 150, 3) 将是一个有效值。
include_top:是否包含网络顶部的全连接层。
这仅仅是因为最后的全连接层只能接受固定大小的输入,这在之前已经由输入形状和卷积层中的所有处理定义。对输入形状的任何更改都会改变全连接层的输入形状,从而使权重不兼容(矩阵大小不匹配且无法应用)。
这是全连接层的一个特定问题。如果使用另一层进行分类,比如全局平均池化,那么就不会有这个问题了。
| 归档时间: |
|
| 查看次数: |
4861 次 |
| 最近记录: |