使用evaluate_generator可获得0%的准确率,但在使用相同数据进行培训时,准确率为75% - 具体情况如何?

Ben*_*ler 7 python keras tensorflow

我使用ImageDataGenerator,fit_generator和evaluate_generator遇到了一个非常奇怪的keras模型.

我正在创建这样的模型:

classes = <list of classes>
num_classes = len(classes)

pretrained_model = Sequential()
pretrained_model.add(ResNet50(include_top=False, weights='imagenet', pooling='avg'))
pretrained_model.add(Dense(num_classes, activation='softmax'))

pretrained_model.layers[0].trainable = False

pretrained_model.compile(
    optimizer='adam',
    loss='categorical_crossentropy',
    metrics=['accuracy']
)
Run Code Online (Sandbox Code Playgroud)

我正在训练它:

idg_final = ImageDataGenerator(
    data_format='channels_last',
    rescale=1./255,
    width_shift_range = 0.2,
    height_shift_range = 0.2,
    rotation_range=15,
)

traing_gen = idg_final.flow_from_directory('./train', classes=classes, target_size=(224, 224), class_mode='categorical')

pretrained_model.fit_generator(traing_gen, epochs=1, verbose=1)
Run Code Online (Sandbox Code Playgroud)

fit_generator打印loss: 1.0297 - acc: 0.7546.

然后,我试图在它训练完全相同的数据上评估模型.

debug_gen = idg_final.flow_from_directory('./train', target_size=(224, 224), class_mode='categorical', classes=classes, shuffle=True)
print(pretrained_model.evaluate_generator(debug_gen, steps=100))
Run Code Online (Sandbox Code Playgroud)

哪个打印[10.278913383483888, 0.0].

为什么在相同的精确数据上精度如此不同?

编辑:我还想指出有时精度高于0.0.例如,当我使用经过五个时期训练的模型时,evaluate_accuracy返回6%的准确度.


编辑2:根据下面的答案,我确保训练更多的时代,并且ImageDataGenerator评估没有随机的轮班和轮换.我在训练期间仍然获得非常高的准确度,并且在同一数据集的评估期间精度极低.

我训练得像

idg_final = ImageDataGenerator(
    data_format='channels_last',
    rescale=1./255,
    width_shift_range = 0.2,
    height_shift_range = 0.2,
    rotation_range=15,
)

traing_gen = idg_final.flow_from_directory('./train', classes=classes, target_size=(224, 224), class_mode='categorical')                  

pretrained_model.fit_generator(traing_gen, epochs=10, verbose=1)
Run Code Online (Sandbox Code Playgroud)

其中打印以下内容:

Found 9850 images belonging to 4251 classes.
Epoch 1/10
308/308 [==============================] - 3985s 13s/step - loss: 8.9218 - acc: 0.0860
Epoch 2/10
308/308 [==============================] - 3555s 12s/step - loss: 3.2710 - acc: 0.3403
Epoch 3/10
308/308 [==============================] - 3594s 12s/step - loss: 1.8597 - acc: 0.5836
Epoch 4/10
308/308 [==============================] - 3656s 12s/step - loss: 1.2712 - acc: 0.7058
Epoch 5/10
308/308 [==============================] - 3667s 12s/step - loss: 0.9556 - acc: 0.7795
Epoch 6/10
308/308 [==============================] - 3689s 12s/step - loss: 0.7665 - acc: 0.8207
Epoch 7/10
308/308 [==============================] - 3693s 12s/step - loss: 0.6581 - acc: 0.8498
Epoch 8/10
308/308 [==============================] - 3618s 12s/step - loss: 0.5874 - acc: 0.8636
Epoch 9/10
308/308 [==============================] - 3823s 12s/step - loss: 0.5144 - acc: 0.8797
Epoch 10/10
308/308 [==============================] - 4334s 14s/step - loss: 0.4835 - acc: 0.8854
Run Code Online (Sandbox Code Playgroud)

我在完全相同的数据集上进行这样的评估

idg_debug = ImageDataGenerator(
    data_format='channels_last',
    rescale=1./255,
)

debug_gen = idg_debug.flow_from_directory('./train', target_size=(224, 224), class_mode='categorical', classes=classes)
print(pretrained_model.evaluate_generator(debug_gen))
Run Code Online (Sandbox Code Playgroud)

打印出以下非常低的精度: [10.743386410747084, 0.0001015228426395939]


完整的代码在这里.

Dan*_*ler 3

我怀疑两件事。

1 - 不,您的数据不一样。

您在 中使用了三种类型的增强ImageDataGenerator,并且似乎没有设置随机种子。因此,测试数据不等于训练数据。

看起来,你也只训练了一个时期,这是非常小的(除非你真的有大量的数据,但由于你正在使用增强,也许情况并非如此)。steps_per_epoch(PS:我在你的电话中没有看到争论fit_generator......)

所以,如果你想看到好的结果,这里有一些解决方案:

  • 从该测试的生成器中删除增强参数(训练数据和测试数据) - 这意味着删除width_shift_range,height_shift_rangerotation_range;
  • 如果没有,训练很长时间,足以让你的模型真正适应各种增强图像(看起来,五个时期似乎仍然太少了);
  • 或设置随机种子并保证测试数据等于训练数据(seed参数flow_from_directory

2 -(如果您对 Keras/编程非常陌生,则可能会发生这种情况,所以如果不是这种情况,请忽略)您可能在测试时再次运行定义模型的代码。

如果您再次运行定义模型的代码,它将用随机权重替换您之前的所有训练。

3 - 由于我们没有建议:

也许保存权重而不是保存模型。我通常这样做而不是保存模型。(由于某种原因我不明白,我从来无法加载这样的模型)

def createModel():
    ....

model = createModel()
...
model.fit_generator(....)

np.save('model_weights.npy',model.get_weights())

model = createModel()
model.set_weights(np.load('model_weights.npy'))
...
model.evaluate_generator(...)
Run Code Online (Sandbox Code Playgroud)

暗示:

这与 bug 无关,但请确保基础模型层确实是第 0 层。如果我没记错的话,顺序模型有一个输入层,实际上应该使第 1 层不可训练。

使用model.summary()来确认不可训练参数的数量。