Osm*_*Osm 5 nlp deep-learning lstm keras attention-model
基于这个文章,我写了这个模式:
enc_in=Input(shape=(None,in_alphabet_len))
lstm=LSTM(lstm_dim,return_sequences=True,return_state=True,use_bias=False)
enc_out,h,c=lstm(enc_in)
dec_in=Input(shape=(None,in_alphabet_len))
decoder,_,_=LSTM(decoder_dim,return_sequences=True,return_state=True)(dec_in,initial_state=[h,c])
decoder=Dense(units=in_alphabet_len,activation='softmax')(decoder)
model=Model([enc_in,dec_in],decoder)
Run Code Online (Sandbox Code Playgroud)
如何在解码器之前为该模型添加关注层?
您可以使用这个存储库,
pip install keras-self-attentionfrom keras_self_attention import SeqSelfAttention
os.environ['TF_KERAS'] = '1' 由于您使用的是 keras 功能 API,
enc_out, h, c = lstm()(enc_in)
att = SeqSelfAttention()(enc_out)
dec_in = Input(shape=(None, in_alphabet_len))(att)
Run Code Online (Sandbox Code Playgroud)
我希望这能回答您的问题以及未来的读者
| 归档时间: |
|
| 查看次数: |
716 次 |
| 最近记录: |