Thi*_*ent 2 gpu machine-learning conv-neural-network keras tensorflow
我正在尝试训练 cnn-lstm 模型,我的样本图像大小是 640x640。
我有 GTX 1080 ti 11GB。
我正在使用带有张量流后端的 Keras。
这是模型。
img_input_1 = Input(shape=(1, n_width, n_height, n_channels))
conv_1 = TimeDistributed(Conv2D(96, (11,11), activation='relu', padding='same'))(img_input_1)
pool_1 = TimeDistributed(MaxPooling2D((3,3)))(conv_1)
conv_2 = TimeDistributed(Conv2D(128, (11,11), activation='relu', padding='same'))(pool_1)
flat_1 = TimeDistributed(Flatten())(conv_2)
dense_1 = TimeDistributed(Dense(4096, activation='relu'))(flat_1)
drop_1 = TimeDistributed(Dropout(0.5))(dense_1)
lstm_1 = LSTM(17, activation='linear')(drop_1)
dense_2 = Dense(4096, activation='relu')(lstm_1)
dense_output_2 = Dense(1, activation='sigmoid')(dense_2)
model = Model(inputs=img_input_1, outputs=dense_output_2)
op = optimizers.Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.001)
model.compile(loss='mean_absolute_error', optimizer=op, metrics=['accuracy'])
model.fit(X, Y, epochs=3, batch_size=1)
Run Code Online (Sandbox Code Playgroud)
现在使用这个模型,我只能在图像大小调整为 60x60 时使用训练数据,任何更大的尺寸都会耗尽 GPU 内存。
我想使用尽可能大的尺寸,因为我想保留尽可能多的歧视性信息。(y 标签将是 0 - 640 之间的鼠标屏幕坐标)
在许多其他问题中,我找到了这个答案: https://ai.stackexchange.com/questions/3938/how-to-handle-images-of-large-sizes-in-cnn
虽然我不确定如何“限制你的 CNN”或“在每个时期流式传输你的数据”或者这些是否有帮助。
如何减少内存使用量以便增加图像大小?
是否有可能牺牲训练时间/计算速度来支持更高分辨率的数据,同时保留模型的有效性?
注:以上模型并非最终模型,只是基本支出。
你的Dense层可能会破坏训练。为了提供一些背景信息,我们假设您正在使用640x640x3图像大小。让我们也忘记该LSTM层并假设这是一个非时间序列任务(当然,作为一个时间序列问题的复杂性会变得更糟)。
这是输出尺寸。
Conv1->640x640x96Maxpool1-> 210x210x96(应用程序)Conv2->210x210x128现在瓶颈来了。然后,您将flatten()输出发送到图层Dense。这个致密层有210x210x128x4096参数(即23,121,100,800)。假设32-bit精度,你的密集层将占用大约 86GB(我希望我的计算是正确的,但我向你保证这不是一个小数字)。
所以你的选择很少。
Dense图层大小。Conv。640x640x3。根据您想要实现的目标,您也许可以使用较小的图像来实现这一目标。| 归档时间: |
|
| 查看次数: |
3231 次 |
| 最近记录: |