rak*_*esh 54 python verbose deep-learning keras
我是第一次运行LSTM模型.这是我的模型:
opt = Adam(0.002)
inp = Input(...)
print(inp)
x = Embedding(....)(inp)
x = LSTM(...)(x)
x = BatchNormalization()(x)
pred = Dense(5,activation='softmax')(x)
model = Model(inp,pred)
model.compile(....)
idx = np.random.permutation(X_train.shape[0])
model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1)
Run Code Online (Sandbox Code Playgroud)
在训练模型时,使用详细信息有什么用?
Md.*_*yes 12
verbose 是您希望在训练时如何查看神经网络输出的选择。如果设置 verbose = 0,则不会显示任何内容
如果设置 verbose = 1,它将显示如下输出 Epoch 1/200 55/55[============================== ==] - 10s 307ms/步 - 损失:0.56 - 准确度:0.4949
如果设置 verbose = 2,输出将类似于 Epoch 1/200 Epoch 2/200 Epoch 3/200
对于verbose> 0,fit方法日志:
注意:如果使用正则化机制,则将其打开以避免过度拟合。
如果validation_data或validation_split参数不为空,则fit方法日志:
注意:由于我们正在使用网络的所有功能,因此在测试时会关闭正则化机制。
例如,verbose在训练过程中使用模型有助于发现过度拟合,如果您在acc不断val_acc恶化的同时不断改进,则会发生过度拟合。
verbose: Integer。0、1或2。详细模式。
详细== 0(无声)
详细== 1(进度条)
Train on 186219 samples, validate on 20691 samples
Epoch 1/2
186219/186219 [==============================] - 85s 455us/step - loss: 0.5815 - acc:
0.7728 - val_loss: 0.4917 - val_acc: 0.8029
Train on 186219 samples, validate on 20691 samples
Epoch 2/2
186219/186219 [==============================] - 84s 451us/step - loss: 0.4921 - acc:
0.8071 - val_loss: 0.4617 - val_acc: 0.8168
Run Code Online (Sandbox Code Playgroud)
详细= 2(每个时期一行)
Train on 186219 samples, validate on 20691 samples
Epoch 1/1
- 88s - loss: 0.5746 - acc: 0.7753 - val_loss: 0.4816 - val_acc: 0.8075
Train on 186219 samples, validate on 20691 samples
Epoch 1/1
- 88s - loss: 0.4880 - acc: 0.8076 - val_loss: 0.5199 - val_acc: 0.8046
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
53316 次 |
| 最近记录: |