如何使用Keras进行多GPU培训?

Raj*_*tra 10 multi-gpu keras

我希望我的模型在多个GPU上运行,共享参数但具有不同批量的数据.

我可以这样做model.fit()吗?还有其他选择吗?

Dro*_*man 2

尝试使用 make_parallel 函数: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (它仅适用于tensorflow后端)。