小编Gio*_*kas的帖子

Tensorflow - 为什么在tf.nn和tf.layers/tf.losses/tf.contrib.layers等中有这么多类似甚至重复的函数?

在Tensorflow中(从v1.2.1开始),似乎有(至少)两个并行API来构建计算图.tf.nn中有函数,如conv2d,avg_pool,relu,dropout,然后在tf.layers,tf.losses和其他地方有类似的函数,如tf.layers.conv2d,tf.layers.dense,tf.layers.退出.

从表面上看,似乎这种情况只会引起混淆:例如,tf.nn.dropout使用"保持率",而tf.layers.dropout使用"丢弃率"作为参数.

这种区别对最终用户/开发人员有什么实际意义吗?如果没有,是否有任何清理API的计划?

tensorflow

10
推荐指数
1
解决办法
2619
查看次数

在PyTorch中强制GPU内存限制

有没有一种方法可以为特定Pytorch实例强制提供我想使用的GPU内存量的最大值?例如,我的GPU可能有12Gb可用,但是我想为特定进程分配最大4Gb。

pytorch

7
推荐指数
2
解决办法
3570
查看次数

标签 统计

pytorch ×1

tensorflow ×1