有谁知道我在哪里可以找到如何在OpenNLP库中使用SimpleLemmatizer()类的示例,以及我可以在哪里找到示例英语字典?它似乎在文档中缺失.
我正在尝试使用CNTK训练模型,该模型接收两个输入序列并输出二维标量标签.我已经定义了这样的模型:
def create_seq_model(num_tokens):
with C.default_options(init=C.glorot_uniform()):
i1 = sequence.input(shape=num_tokens, is_sparse=True, name='i1')
i2 = sequence.input(shape=num_tokens, is_sparse=True, name='i2')
s1 = Sequential([Embedding(300), Fold(GRU(64))])(i1)
s2 = Sequential([Embedding(300), Fold(GRU(64))])(i2)
combined = splice(s1, s2)
model = Sequential([Dense(64, activation=sigmoid),
Dropout(0.1, seed=42),
Dense(2, activation=softmax)])
return model(combined)
Run Code Online (Sandbox Code Playgroud)
我已将数据转换为CTF格式.当我尝试使用以下代码段训练它时(这里的示例非常轻微修改),我收到一个错误:
def train(reader, model, max_epochs=16):
criterion = create_criterion_function(model)
criterion.replace_placeholders({criterion.placeholders[0]: C.input(2, name='labels')})
epoch_size = 500000
minibatch_size=128
lr_per_sample = [0.003]*4+[0.0015]*24+[0.0003]
lr_per_minibatch= [x*minibatch_size for x in lr_per_sample]
lr_schedule = learning_rate_schedule(lr_per_minibatch, UnitType.minibatch, epoch_size)
momentum_as_time_constant = momentum_as_time_constant_schedule(700)
learner = fsadagrad(criterion.parameters,
lr=lr_schedule, momentum=momentum_as_time_constant,
gradient_clipping_threshold_per_sample=15,
gradient_clipping_with_truncation=True)
progress_printer = …Run Code Online (Sandbox Code Playgroud) 所以,假设我有一个像这样的节点列表:
A - > B - > C - > D - > ......
我想将节点F添加到此列表的开头.为了使这种模式复杂化,我可以将该列表中任何节点的引用作为"起始点",我将从中获得起点.例如,我可以给出对节点"C"的引用,并且需要派生一个将返回对A的引用的算法.
我认为这应该可以通过诸如的查询来完成
START n = node(*), a = node(*)
MATCH a -[:LINKED*]> n
WHERE n.id! = <ID>
RETURN a
Run Code Online (Sandbox Code Playgroud)
如果我可以按长度对关系进行排序,我可以简单地将最长的路径作为关系中的第一个节点,然后沿着我的快乐方式前进.麻烦的是,我无法弄清楚如何按路径长度排序结果.我认为它一定是可能的,我只是缺少一个小的查询命令.任何接受者?
-pYr0