小编use*_*311的帖子

有没有办法将我的所有 GPU 设置为非 XLA,这样我就可以使用多个 gpu 而不是一个 gpu 进行训练?

我想使用多个 GPU 训练 keras 模型。我的理解是您目前无法使用 XLA 训练多个 GPU。问题是我不知道如何关闭 XLA。每个 GPU 都被列为 xla gpu。

作为参考,我在最新的 Ubuntu 桌面上使用了 3 个 RTX2070。nvidia-smi 确实显示了所有 3 个 gpu。

我试过卸载并重新安装tensorflow-gpu。那没有帮助。

keras.utils.training_utils import multi_gpu_model
model = multi_gpu_model(model,gpus=3)
Run Code Online (Sandbox Code Playgroud)

值错误:

 To call `multi_gpu_model` with `gpus=3`, we expect the following devices to be available: ['/cpu:0', '/gpu:0', '/gpu:1', '/gpu:2']. However this machine only has: ['/cpu:0', '/xla_cpu:0', '/xla_gpu:0', '/xla_gpu:1', '/xla_gpu:2']. Try reducing `gpus`.
Run Code Online (Sandbox Code Playgroud)

编辑:我正在使用tensorflow-gpu,实际上我刚刚确认它甚至没有使用一个 gpu。我通过将批量大小提高到 10,000 来确认这一点,并且没有看到 nvidia-smi 的变化,但我确实通过 htop 看到了 CPU/内存使用的变化。

编辑2:

tf.test.gpu_device_name()
Run Code Online (Sandbox Code Playgroud)

只打印一个空字符串

然而

    from …
Run Code Online (Sandbox Code Playgroud)

gpu nvidia keras tensorflow

5
推荐指数
1
解决办法
729
查看次数

标签 统计

gpu ×1

keras ×1

nvidia ×1

tensorflow ×1