如何使用tf.estimator控制GPU内存大小

P1t*_*1t_ 3 tensorflow

我正在尝试控制为一个张量流估计器tf.estimator.Estimator分配的GPU内存的大小.目的是仅在同一GPU上分配一半来运行其他tensorflow网络.我找到了贡献版本但不是官方版本.有人知道这是否可能?

GPh*_*ilo 7

当你创建一个Estimator实例,你可以在构造函数传递config一个tf.estimator.RunConfig实例.该RunConfig有一个session_config可以用来设置属性tf.ConfigProto与会话的参数.

在代码中,这转换为:

session_config = tf.ConfigProto()
session_config.gpu_options.per_process_gpu_memory_fraction = 0.5
estimator_config = tf.estimator.RunConfig(session_config=session_config)
my_estimator = tf.estimator.Estimator(..., config=estimator_config)
Run Code Online (Sandbox Code Playgroud)