小编j31*_*rre的帖子

如何计算张量流模型中可训练参数的总数?

是否有函数调用或其他方法来计算张量流模型中的参数总数?

通过参数我的意思是:可训练变量的N dim向量具有N个参数,NxM矩阵具有N*M参数等.因此,基本上我想在张量流会话中求和所有可训练变量的形状维度的乘积.

neural-network tensorflow

52
推荐指数
5
解决办法
3万
查看次数

TENSorflow多个会话与多个GPU

我有一个带有2个GPU的工作站,我正在尝试同时运行多个tensorflow作业,所以我可以同时训练多个模型,等等.

例如,我试图通过在script1.py中使用python API将会话分成不同的资源:

with tf.device("/gpu:0"):
    # do stuff
Run Code Online (Sandbox Code Playgroud)

在script2.py中:

with tf.device("/gpu:1"):
    # do stuff
Run Code Online (Sandbox Code Playgroud)

在script3.py中

with tf.device("/cpu:0"):
    # do stuff
Run Code Online (Sandbox Code Playgroud)

如果我自己运行每个脚本,我可以看到它正在使用指定的设备.(此外,这些模型非常适合单个GPU,即使两者都可用,也不会使用另一个.)

但是,如果一个脚本正在运行并且我尝试运行另一个脚本,我总是会收到此错误:

I tensorflow/core/common_runtime/local_device.cc:40] Local device intra op parallelism threads: 8
I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:909] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/core/common_runtime/gpu/gpu_init.cc:103] Found device 0 with properties: 
name: GeForce GTX 980
major: 5 minor: 2 memoryClockRate (GHz) 1.2155
pciBusID 0000:01:00.0
Total memory: 4.00GiB …
Run Code Online (Sandbox Code Playgroud)

gpu tensorflow

18
推荐指数
1
解决办法
2万
查看次数

标签 统计

tensorflow ×2

gpu ×1

neural-network ×1