Ale*_*tis 5 autoencoder lstm keras
我正在尝试在 Keras 中构建一个文本 LSTM 自动编码器。我想使用嵌入层,但我不确定如何实现。代码看起来像这样。
inputs = Input(shape=(timesteps, input_dim))
embedding_layer = Embedding(numfeats + 1,
EMBEDDING_DIM,
weights=[data_gen.get_embedding_matrix()],
input_length=maxlen,
trainable=False)
embedded_sequence = embedding_layer(inputs)
encoded = LSTM(num_units)(inputs)
decoded = RepeatVector(timesteps)(encoded)
decoded = LSTM(???, return_sequences=True)(decoded)
sequence_autoencoder = Model(inputs, decoded)
sequence_autoencoder.compile(loss='binary_crossentropy', optimizer='adam')
Run Code Online (Sandbox Code Playgroud)
我不确定如何将输出解码为目标序列(这显然是输入序列)。
无法在解码器中实现逆嵌入层,因为嵌入层是不可微分的。可能还有其他方法可以解决:
从嵌入层的输出构造自动编码器到具有相似维度的层。然后使用最近邻或其他算法从那里生成单词序列。
构造一个非对称自动编码器,使用时间分布层和密集层来降低 LSTM 输出的维度。
希望这有帮助。
| 归档时间: |
|
| 查看次数: |
3233 次 |
| 最近记录: |