Keras log_loss 错误相同

Tom*_*sta 5 python python-3.x deep-learning keras tensorflow

我是 keras 和深度学习的新手。当我创建一个示例基本模型时,我适合它并且我的模型的对数损失始终相同。

model = Sequential()
model.add(Convolution2D(32, 3, 3, border_mode='same', init='he_normal',
                        input_shape=(color_type, img_rows, img_cols)))
model.add(MaxPooling2D(pool_size=(2, 2), dim_ordering="th"))
model.add(Dropout(0.5))
model.add(Convolution2D(64, 3, 3, border_mode='same', init='he_normal'))
model.add(MaxPooling2D(pool_size=(2, 2), dim_ordering="th")) #this part is wrong
model.add(Dropout(0.5))

model.add(Convolution2D(128, 3, 3, border_mode='same', init='he_normal'))
model.add(MaxPooling2D(pool_size=(2, 2), dim_ordering="th"))
model.add(Dropout(0.5))

model.add(Flatten())
model.add(Dense(10))
model.add(Activation('softmax'))

model.compile(Adam(lr=1e-3), loss='categorical_crossentropy')


model.fit(x_train, y_train, batch_size=64, nb_epoch=200,
               verbose=1, validation_data=(x_valid,y_valid))
Run Code Online (Sandbox Code Playgroud)

训练 17939 个样本,验证 4485 个样本

纪元 1/200 17939/17939 [==============================] - 8s - 损失:99.8137 - acc:0.3096 - val_loss: 99.9626 - val_acc: 0.0000e+00

纪元 2/200 17939/17939 [==============================] - 8s - 损失:99.8135 - acc:0.2864 - val_loss: 99.9626 - val_acc: 0.0000e+00

纪元 3/200 17939/17939 [==============================] - 8s - 损失:99.8135 - acc:0.3120 - val_loss: 99.9626 - val_acc: 1.0000

纪元 4/200 17939/17939 [==============================] - 10s - 损失:99.8135 - acc:0.3315 - val_loss: 99.9626 - val_acc: 1.0000

纪元 5/200 17939/17939 [==============================] - 10s - 损失:99.8138 - acc:0.3435 - val_loss: 99.9626 - val_acc: 0.4620

..

...

事情是这样的

你知道我做错了哪一部分吗?

Mir*_*ber 5

这种行为的一个原因可能是学习率太小。尝试使用Adam(lr=1e-2)或来提高学习率Adam(lr=1e-1)。此外,等待更多的迭代(时期),看看它是否有所改善。如果没有,您可以尝试减少辍学。此外,如果您还没有这样做,我建议您将输入数据标准化。