我正在运行一个带有非常大的嵌入字(> 2M字)的模型.当我使用tf.embedding_lookup时,它期望矩阵很大.当我运行时,我随后摆脱了GPU内存错误.如果我减小嵌入的大小,一切正常.
有没有办法处理更大的嵌入?
我构建了一次项目,因此它生成了一堆.o和.a文件.现在,我正在努力清理它.
这个页面:http://www.boost.org/build/doc/html/bbv2/overview/invocation.html告诉我b2 --clean-all或b2 clean应该工作.
但是,我尝试过:
b2 clean
b2 --clean
b2 --clean-all
Run Code Online (Sandbox Code Playgroud)
他们似乎都没有做任何事情.如何清洁增强工作区?
我尝试了 strftime,它有 %z 和 %Z,但这些是 +0800 和 PST 等输出。我想要更长的名称,例如 America/Los_Angeles。有一个函数调用可以做到这一点吗?
我有一个转发网络做了很多事情.
推理代码看起来像这样:
conv0_feature_count = 2
with tf.variable_scope('conv0') as scope:
kernel = _variable_with_weight_decay('weights', shape=[5, 5, 1, conv0_feature_count], stddev=5e-2, wd=0.0)
conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding='SAME')
biases = _variable_on_cpu('biases', [conv0_feature_count], tf.constant_initializer(0.0))
bias = tf.nn.bias_add(conv, biases)
conv0 = tf.nn.relu(bias, name=scope.name)
Run Code Online (Sandbox Code Playgroud)
依此类推,然后是最大池,等等.
我希望能够将conv0保存到文件中进行检查.我知道tf.Print会在控制台中打印这些值,但这是一个很大的张量.打印该值毫无意义.