小编J.D*_*Doe的帖子

tf.placeholder和tf.Variable有什么区别?

我是TensorFlow的新手.我对tf.placeholder和之间的区别感到困惑tf.Variable.在我看来,tf.placeholder用于输入数据,并tf.Variable用于存储数据的状态.这就是我所知道的.

有人可以向我详细解释他们的差异吗?特别是何时使用tf.Variable以及何时使用tf.placeholder

tensorflow

264
推荐指数
10
解决办法
7万
查看次数

如何获得张量中元素的计数

我想获得张量中元素的计数,例如,t = [1,2,0,0,0,0](t是张量),我可以得到'0'的数量4通过在python中调用t.count(0),但在tensorflow中,我找不到任何函数来执行此操作.我如何得到'0'的数量?可以请别人帮帮我吗?

python tensorflow

7
推荐指数
2
解决办法
1万
查看次数

如果在测试时在训练模式下使用批次归一化怎么办?

批次归一化在训练阶段和测试阶段具有不同的行为。

例如,在tensorflow中使用tf.contrib.layers.batch_norm时,我们应该is_training在不同的阶段设置不同的值。

我的问题是:如果is_training=True在测试时仍然设置该怎么办?那就是说如果我在测试阶段仍然使用训练模式怎么办?

我提出这个问题的原因是,测试时未设置Pix2PixDualGAN的已发布代码is_training=False。而且,如果is_training=False在测试时设置了该值,则生成的图像的质量可能非常差。

有没有人可以解释一下?谢谢。

normalization tensorflow

6
推荐指数
1
解决办法
1297
查看次数

是否可以在一个 GPU 上同时训练 pytorch 和 tensorflow 模型?

我有一个pytorch模型和tensorflow模式,我想他们在一起训练的一个GPU,以下过程波纹管:input --> pytorch model--> output_pytorch --> tensorflow model --> output_tensorflow --> pytorch model

有可能做到这一点吗?如果答案是肯定的,我会遇到什么问题吗?

提前致谢。

tensorflow pytorch tensorflow-gpu

5
推荐指数
1
解决办法
2709
查看次数