小编ida*_*ida的帖子

如何在keras中使用并行卷积层?

我对神经网络和keras有点新.我有一些大小为6*7的图像,过滤器的大小为15.我想有几个过滤器并分别训练卷积层,然后将它们组合起来.我在这里看了一个例子:

model = Sequential()
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1],
                    border_mode='valid',
                    input_shape=input_shape))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
model.add(Dropout(0.25))
model.add(Flatten(input_shape=input_shape))
model.add(Dense(128))
model.add(Activation('relu'))
model.add(Dense(128))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(nb_classes))
model.add(Activation('tanh'))
Run Code Online (Sandbox Code Playgroud)

此模型适用于一个过滤器.任何人都可以给我一些关于如何修改模型以使用并行卷积层的提示.

谢谢

neural-network conv-neural-network keras keras-layer

14
推荐指数
2
解决办法
1万
查看次数

在多个GPU上运行LSTM会得到“输入张量和隐藏张量不在同一设备上”

我正在尝试在pytorch中训练LSTM层。我正在使用4个GPU。初始化时,我添加了.cuda()函数将隐藏层移动到GPU。但是,当我使用多个GPU运行代码时,出现此运行时错误:

RuntimeError: Input and hidden tensors are not at the same device
Run Code Online (Sandbox Code Playgroud)

我试图通过在以下正向函数中使用.cuda()函数来解决此问题:

self.hidden = (self.hidden[0].type(torch.FloatTensor).cuda(), self.hidden[1].type(torch.FloatTensor).cuda()) 
Run Code Online (Sandbox Code Playgroud)

这条线似乎可以解决问题,但令我担心的是,是否在不同的GPU中看到了更新的隐藏层。我应该将向量在前进功能的末尾移回cpu进行批处理,还是有其他解决方法?

python gpu lstm pytorch

13
推荐指数
1
解决办法
908
查看次数

stanford corenlp python 与 pexpect 错误

我正在尝试从 stanford corenlp python 包运行 corenlp.py 。当我运行它时,我收到此错误:

Traceback (most recent call last):
File "corenlp.py", line 592, in <module>
main()
File "corenlp.py", line 580, in main
nlp = StanfordCoreNLP(options.corenlp, properties=options.properties, serving=True)
File "corenlp.py", line 435, in __init__
self._spawn_corenlp()
File "corenlp.py", line 424, in _spawn_corenlp
self.corenlp.expect("\nNLP> ")
File "/Library/Python/2.7/site-packages/pexpect-4.2.1-py2.7.egg/pexpect/spawnbase.py", line 321, in expect
timeout, searchwindowsize, async)
File "/Library/Python/2.7/site-packages/pexpect-4.2.1-py2.7.egg/pexpect/spawnbase.py", line 345, in expect_list
return exp.expect_loop(timeout)
File "/Library/Python/2.7/site-packages/pexpect-4.2.1-py2.7.egg/pexpect/expect.py", line 105, in expect_loop
return self.eof(e)
File "/Library/Python/2.7/site-packages/pexpect-4.2.1-py2.7.egg/pexpect/expect.py", line 50, in eof
raise EOF(msg)
pexpect.exceptions.EOF: End …
Run Code Online (Sandbox Code Playgroud)

python pexpect stanford-nlp

5
推荐指数
0
解决办法
268
查看次数

Gensim Doc2Vec为模型生成巨大的文件

我正在尝试从gensim包运行doc2vec库。我的问题是,当我训练并保存模型时,模型文件很大(2.5 GB),我尝试使用此行:

model.estimate_memory()
Run Code Online (Sandbox Code Playgroud)

但这并没有改变任何东西。我也尝试过更改max_vocab_size以减少空间。但是没有运气。有人可以帮我解决这个问题吗?

python gensim word2vec semantics doc2vec

3
推荐指数
1
解决办法
567
查看次数