Convolution2D + LSTM与ConvLSTM2D

hik*_*ker 18 python keras tensorflow

12一样吗?

  1. 使用Convolution2D图层和LSTM图层
  2. 使用 ConvLSTM2D

如果有任何差异,你能为我解释一下吗?

ebe*_*tos 15

它们不完全相同,原因如下:

1.使用Convolution2D图层和LSTM图层

众所周知,它Convolution2D可以很好地捕获图像或空间特征,同时LSTM用于检测随时间的相关性.但是,通过堆叠这些层,可能无法正确捕获空间和时间特征之间的相关性.

2.使用 ConvLSTM2D

为了解决这个问题,Xingjian Shi等人.提出了一种能够捕获时空相关性的网络结构,即ConvLSTM.在Keras中,这反映在ConvLSTM2D类中,它在输入和循环变换中计算卷积运算.

Keras代码

也说明这一点,你可以看到这里LSTM代码,如果你去的call方法从LSTMCell,你只看到:

    x_i = K.dot(inputs_i, self.kernel_i)
    x_f = K.dot(inputs_f, self.kernel_f)
    x_c = K.dot(inputs_c, self.kernel_c)
    x_o = K.dot(inputs_o, self.kernel_o)
Run Code Online (Sandbox Code Playgroud)

相反,ConvLSTM2DCell该类调用:

    x_i = self.input_conv(inputs_i, self.kernel_i, self.bias_i, padding=self.padding)
    x_f = self.input_conv(inputs_f, self.kernel_f, self.bias_f, padding=self.padding)
    x_c = self.input_conv(inputs_c, self.kernel_c, self.bias_c, padding=self.padding)
    x_o = self.input_conv(inputs_o, self.kernel_o, self.bias_o, padding=self.padding)
    h_i = self.recurrent_conv(h_tm1_i, self.recurrent_kernel_i)
    h_f = self.recurrent_conv(h_tm1_f, self.recurrent_kernel_f)
    h_c = self.recurrent_conv(h_tm1_c, self.recurrent_kernel_c)
    h_o = self.recurrent_conv(h_tm1_o, self.recurrent_kernel_o)
Run Code Online (Sandbox Code Playgroud)

哪里:

def input_conv(self, x, w, b=None, padding='valid'):
    conv_out = K.conv2d(x, w, strides=self.strides,
                        padding=padding,
                        data_format=self.data_format,
                        dilation_rate=self.dilation_rate)
    if b is not None:
        conv_out = K.bias_add(conv_out, b,
                              data_format=self.data_format)
    return conv_out

def recurrent_conv(self, x, w):
    conv_out = K.conv2d(x, w, strides=(1, 1),
                        padding='same',
                        data_format=self.data_format)
    return conv_out
Run Code Online (Sandbox Code Playgroud)

LSTM,h_x(循环变换)的等价物将是:

K.dot(h_tm1_x, self.recurrent_kernel_x)
Run Code Online (Sandbox Code Playgroud)

而不是ConvLSTM2D's:

self.recurrent_conv(h_tm1_x, self.recurrent_kernel_x)
Run Code Online (Sandbox Code Playgroud)

无法使用堆叠Conv2DLSTM图层计算这些变换.

  • 所以,如果原因是同时捕获数据的时空,那么下一个问题是:**ConvLSTM2D** 和 **Conv3D** 有什么区别? (4认同)

use*_*457 6

  1. 使用Convolution2D层和LSTM层

在这种技术中,您可以堆叠卷积和LSTM层。卷积层帮助您学习空间特征,而LSTM帮助您及时了解相关性。

2,使用ConvLSTM2D

ConvLSTM是其中门(输入到状态和状态到状态转换)是卷积运算的LSTM。
研究论文- 卷积LSTM网络:一种用于降水临近预报的机器学习方法

有关SOvLSTM的更多信息,请参见SO解答