小编tha*_*ang的帖子

如何在张量流中使用非常大的(> 2M)字嵌入?

我正在运行一个带有非常大的嵌入字(> 2M字)的模型.当我使用tf.embedding_lookup时,它期望矩阵很大.当我运行时,我随后摆脱了GPU内存错误.如果我减小嵌入的大小,一切正常.

有没有办法处理更大的嵌入?

nlp embedding deep-learning tensorflow embedding-lookup

10
推荐指数
1
解决办法
2011
查看次数

提升1.59.0如何清理项目?

我构建了一次项目,因此它生成了一堆.o和.a文件.现在,我正在努力清理它.

这个页面:http://www.boost.org/build/doc/html/bbv2/overview/invocation.html告诉我b2 --clean-allb2 clean应该工作.

但是,我尝试过:

  b2 clean
  b2 --clean
  b2 --clean-all
Run Code Online (Sandbox Code Playgroud)

他们似乎都没有做任何事情.如何清洁增强工作区?

c++ boost

7
推荐指数
2
解决办法
6835
查看次数

如何获取当前时区城市名称,例如 America/Los_Angeles

我尝试了 strftime,它有 %z 和 %Z,但这些是 +0800 和 PST 等输出。我想要更长的名称,例如 America/Los_Angeles。有一个函数调用可以做到这一点吗?

c c++ linux

4
推荐指数
1
解决办法
255
查看次数

有没有办法将Tensorflow中的中间输出保存到文件中?

我有一个转发网络做了很多事情.

推理代码看起来像这样:

conv0_feature_count = 2
with tf.variable_scope('conv0') as scope:
    kernel = _variable_with_weight_decay('weights', shape=[5, 5, 1, conv0_feature_count], stddev=5e-2, wd=0.0)
    conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding='SAME')
    biases = _variable_on_cpu('biases', [conv0_feature_count], tf.constant_initializer(0.0))
    bias = tf.nn.bias_add(conv, biases)
    conv0 = tf.nn.relu(bias, name=scope.name)
Run Code Online (Sandbox Code Playgroud)

依此类推,然后是最大池,等等.

我希望能够将conv0保存到文件中进行检查.我知道tf.Print会在控制台中打印这些值,但这是一个很大的张量.打印该值毫无意义.

debugging save tensorflow

2
推荐指数
1
解决办法
2105
查看次数