小编use*_*042的帖子

pandas loc vs. iloc vs. ix vs. at vs. iat?

最近开始从我的安全地点(R)扩展到Python,并且对于细胞定位/选择感到有些困惑Pandas.我已经阅读了文档,但我很难理解各种本地化/选择选项的实际意义.

  • 我有理由选择使用.loc.iloc超过最常用的选项.ix吗?
  • 我的理解是.loc,iloc,at,和iat可以提供一些保证正确性是.ix不能提供的,但我也看到了在那里.ix往往是一刀切最快的解决方案.
  • 请解释除了使用其他任何东西背后的现实世界,最佳实践推理.ix

python lookup indexing performance pandas

157
推荐指数
4
解决办法
9万
查看次数

Keras 双向 LSTM:通过了与 `cell.state_size 不兼容的 initial_state`

我正在尝试在 Keras 中构建一个堆叠的双向 LSTM seq2seq 模型,但是在将编码器的输出状态传递到解码器的输入状态时遇到了一个问题。基于此拉取请求,这看起来应该是可能的。最终,我想encoder_output为其他下游任务保留向量。

错误信息:

ValueError: An `initial_state` was passed that is not compatible with `cell.state_size`. Received `state_spec`=[InputSpec(shape=(None, 100), ndim=2)]; however `cell.state_size` is (100, 100)
Run Code Online (Sandbox Code Playgroud)

我的型号:

MAX_SEQUENCE_LENGTH = 50
EMBEDDING_DIM = 250
latent_size_1 = 100
latent_size_2 = 50
latent_size_3 = 250

embedding_layer = Embedding(num_words,
                            EMBEDDING_DIM,
                            embeddings_initializer=Constant(embedding_matrix),
                            input_length=MAX_SEQUENCE_LENGTH,
                            trainable=False,
                            mask_zero=True)

encoder_inputs = Input(shape=(MAX_SEQUENCE_LENGTH,), name="encoder_input")
encoder_emb = embedding_layer(encoder_inputs)
encoder_lstm_1 = Bidirectional(LSTM(latent_size_1, return_sequences=True),                                                         
                               merge_mode="concat",
                               name="encoder_lstm_1")(encoder_emb)
encoder_outputs, forward_h, forward_c, backward_h, backward_c = Bidirectional(LSTM(latent_size_2, return_state=True), 
                               merge_mode="concat"
                               name="encoder_lstm_2")(encoder_lstm_1)
state_h = …
Run Code Online (Sandbox Code Playgroud)

python keras tensorflow

4
推荐指数
1
解决办法
2451
查看次数

标签 统计

python ×2

indexing ×1

keras ×1

lookup ×1

pandas ×1

performance ×1

tensorflow ×1