小编nak*_*ung的帖子

具有多个gpu的分布式张量流

似乎tf.train.replica_device_setter不允许指定使用的gpu.

我想做的是如下:

 with tf.device(
   tf.train.replica_device_setter(
   worker_device='/job:worker:task:%d/gpu:%d' % (deviceindex, gpuindex)):
     <build-some-tf-graph>
Run Code Online (Sandbox Code Playgroud)

distributed tensorflow

0
推荐指数
1
解决办法
2057
查看次数

标签 统计

distributed ×1

tensorflow ×1