小编Osm*_*Osm的帖子

如何在Keras上的seq2seq模型中添加关注层

基于这个文章,我写了这个模式:

enc_in=Input(shape=(None,in_alphabet_len))
lstm=LSTM(lstm_dim,return_sequences=True,return_state=True,use_bias=False)
enc_out,h,c=lstm(enc_in)
dec_in=Input(shape=(None,in_alphabet_len))
decoder,_,_=LSTM(decoder_dim,return_sequences=True,return_state=True)(dec_in,initial_state=[h,c])
decoder=Dense(units=in_alphabet_len,activation='softmax')(decoder)
model=Model([enc_in,dec_in],decoder) 
Run Code Online (Sandbox Code Playgroud)

如何在解码器之前为该模型添加关注层?

nlp deep-learning lstm keras attention-model

5
推荐指数
1
解决办法
716
查看次数

标签 统计

attention-model ×1

deep-learning ×1

keras ×1

lstm ×1

nlp ×1