我有一个长度为t(x0,...,xt)的时间序列,每个xi是一个d维向量,即xi =(x0i,x1i,...,xdi).因此我的输入X的形状[batch_size,d]
张量流LSTM的输入应为[batchSize,hidden_size]的大小.我的问题是我应该如何输入我的时间序列到LSTM.我想到的一个可能的解决方案是具有额外的权重矩阵W,其大小为[d,hidden_size]并且用X*W + B输入LSTM.
这是正确的还是我应该向netwoרk输入其他内容?
谢谢
我有AMD Opteron(tm)6282SE 2.6 GHZ 32核(2个处理器16核每个)我有C#数学应用程序,我可以在并行核心上运行.
我得到的应用主要部分的最佳性能是当我使用16个线程(即将工作分成16个线程)时,该部分的最佳运行时间为1MS.
如果我使用超过16个线程,我得到超过1MS.
我的问题是为什么我不能将这部分与更多线程并行,假设我有32个核心.
这是并行运行的代码.
int N = 238;
int P = 16;
int Chunk = N / P;
AutoResetEvent signal = new AutoResetEvent(false);
// use a counter to reduce
int counter = P;
// kernel transitions
for (int c = 0; c < P; c++)
{
// for each chunk
ThreadPool.QueueUserWorkItem(delegate(Object o)
{
int lc = (int)o;
for (int i = lc * Chunk; i < (lc + 1 == P ? N : (lc …
Run Code Online (Sandbox Code Playgroud)