有人可以解释以下TensorFlow术语
inter_op_parallelism_threads
intra_op_parallelism_threads
或者,请提供正确解释来源的链接.
我通过改变参数进行了一些测试,但结果并不一致,无法得出结论.
我在群集上使用Tensorflow,我想告诉Tensorflow只在一个核心上运行(即使有更多可用).
有人知道这是否可能?
从我运行的实验来看,似乎TensorFlow自动使用一台机器上的所有CPU.此外,似乎TensorFlow将所有CPU称为/ cpu:0.
我是对的,只有一台机器的不同GPU被索引并被视为单独的设备,但是一台机器上的所有CPU都被视为一台设备吗?
从TensorFlows的角度来看,有没有什么方法可以让多台CPU查看它?