小编ofe*_*r-a的帖子

输入到LSTM网络张量流

我有一个长度为t(x0,...,xt)的时间序列,每个xi是一个d维向量,即xi =(x0i,x1i,...,xdi).因此我的输入X的形状[batch_size,d]

张量流LSTM的输入应为[batchSize,hidden_​​size]的大小.我的问题是我应该如何输入我的时间序列到LSTM.我想到的一个可能的解决方案是具有额外的权重矩阵W,其大小为[d,hidden_​​size]并且用X*W + B输入LSTM.

这是正确的还是我应该向netwoרk输入其他内容?

谢谢

python lstm tensorflow recurrent-neural-network

15
推荐指数
1
解决办法
5027
查看次数

虽然计算机有32个核心,但多线程应用程序使用16线程获得最佳

我有AMD Opteron(tm)6282SE 2.6 GHZ 32核(2个处理器16核每个)我有C#数学应用程序,我可以在并行核心上运行.

我得到的应用主要部分的最佳性能是当我使用16个线程(即将工作分成16个线程)时,该部分的最佳运行时间为1MS.

如果我使用超过16个线程,我得到超过1MS.

我的问题是为什么我不能将这部分与更多线程并行,假设我有32个核心.

这是并行运行的代码.

int N = 238;
int P = 16;

int Chunk = N / P;
AutoResetEvent signal = new AutoResetEvent(false);
// use a counter to reduce
int counter = P;

// kernel transitions   
for (int c = 0; c < P; c++)
{           
    // for each chunk
    ThreadPool.QueueUserWorkItem(delegate(Object o)
    {
        int lc = (int)o;
        for (int i = lc * Chunk; i < (lc + 1 == P ? N : (lc …
Run Code Online (Sandbox Code Playgroud)

c# multithreading

7
推荐指数
1
解决办法
244
查看次数