使用keras(TensorFlow)构建Conv2D + LSTM模型

Edw*_*ang 5 python lstm keras

数据为10个视频,每个视频分为86帧,每帧有28*28像素,

video_num = 10
frame_num = 86
pixel_num = 28*28
Run Code Online (Sandbox Code Playgroud)

我想使用Conv2D + LSDM来构建模型,并在每个time_steps(= frame_num = 86)发送模型中的像素数据(= INPUT_SIZE = 28*28).所以以下是关于模型的代码

BATCH_SIZE = 2 (just try)
TIME_STEPS=frame_num (=86)
INPUT_SIZE=pixel_num (=28*28)

model = Sequential()
model.add(InputLayer(batch_input_shape=(BATCH_SIZE, TIME_STEPS,     
INPUT_SIZE)))
print (model.output_shape)

model.add(TimeDistributed(Conv2D(64,(1,3),strides=(1,1), padding='same', 
data_format='channels_last')))  ##always the error here
print (model.output_shape)

model.add(TimeDistributed(MaxPooling2D(pool_size=(2,2),padding='same')))
print (model.output_shape)

model.add(TimeDistributed(Conv2D(64,(1,3),strides=(1,1), 
data_format='channels_last', padding='same')))
print (model.output_shape)

model.add(TimeDistributed(MaxPooling2D(pool_size=(2,2),padding='same')))
print (model.output_shape)

model.add(TimeDistributed(Flatten()))
print (model.output_shape)

model.add(TimeDistributed(Dense(4096, activation='relu')))
print (model.output_shape)

model.add(LSTM(100, stateful=True, return_sequences=True))
print (model.output_shape)

model.add(Dense(1, activation='sigmoid'))
print (model.output_shape)
Run Code Online (Sandbox Code Playgroud)

下图显示了命令行中的错误

https://imgur.com/a/yAPQO 说"列表索引超出范围"

我认为该错误是关于TimeDistributed()中的输入形状,它从上层(InputLayer())获取输入,但我不知道如何修复错误.我试图删除InputLayer(),并使用

TimeDistributed(Conv2D(...), input_shape=(TIME_STEPS, INPUT_SIZE))
Run Code Online (Sandbox Code Playgroud)

作为第一层,但也得到同样的错误......

如果有人知道这个错误,请分享您的想法,我将非常感激.另外,我仍然不太清楚batch_input_shape和input_shape之间的区别,有没有人之前使用过这两个?谢谢.

Dan*_*ler 9

Conv2D层需要四个维度,而不是三个:

  • (batch_size, height, width, channels).

TimeDistributed需要一个额外的维度:

  • (batch_size, frames, height, width, channels)

所以,如果你真的要使用TimeDistributed+ Conv2D,你需要5个维度.您input_shape=(86,28,28,3)或您的batch_input_shape=(batch_size,86,28,28,3),我认为您有一个RGB视频(3色通道).

通常,您只需将输入形状传递给TimeDistributed.

model.add(TimeDistributed(Dense(....), input_shape=(86,28,28,3))
Run Code Online (Sandbox Code Playgroud)

batch_input_shape在使用stateful=TrueLSTM的情况下,您将只需要.然后,您只需将batch_shape替换为batch_input_shape.


请注意,只有卷积2D图层才会在高度和宽度方面看到图像.添加LSTM时,您需要重新整形数据以将高度,宽度和通道整合到一个维度中.

对于形状(帧,h,w,ch):

model.add(Reshape((frames,h*w*ch)))
Run Code Online (Sandbox Code Playgroud)

并且您不应该使用TimeDistributed这些LSTM,只能使用卷积层.

您使用的方法是可以的model.add(TimeDistributed(Flatten())),而不是重塑.


另请注意,Keras最近实现了一个ConvLSTM2D层,这可能对您的情况有用:https://keras.io/layers/recurrent/#convlstm2d