mCa*_*ado 5 multi-gpu keras tensorflow
当使用多个 GPU 对模型进行推理(例如调用方法:model(inputs))并计算其梯度时,机器只使用一个 GPU,其余空闲。
例如在下面的代码片段中:
import tensorflow as tf
import numpy as np
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"
# Make the tf-data
path_filename_records = 'your_path_to_records'
bs = 128
dataset = tf.data.TFRecordDataset(path_filename_records)
dataset = (dataset
.map(parse_record, num_parallel_calls=tf.data.experimental.AUTOTUNE)
.batch(bs)
.prefetch(tf.data.experimental.AUTOTUNE)
)
# Load model trained using MirroredStrategy
path_to_resnet = 'your_path_to_resnet'
mirrored_strategy = tf.distribute.MirroredStrategy()
with mirrored_strategy.scope():
resnet50 = tf.keras.models.load_model(path_to_resnet)
for pre_images, true_label in dataset:
with tf.GradientTape() as tape:
tape.watch(pre_images)
outputs = resnet50(pre_images)
grads = tape.gradient(outputs, pre_images)
Run Code Online (Sandbox Code Playgroud)
仅使用一个 GPU。您可以使用 nvidia-smi 分析 GPU 的行为。我不知道它是否应该像这样,model(inputs)并且tape.gradient不支持多 GPU。但如果是这样,那就是一个大问题,因为如果您有一个大数据集并且需要计算关于输入的梯度(例如可解释性海豚),使用一个 GPU 可能需要几天时间。我尝试过的另一件事是使用,model.predict()但这对于tf.GradientTape.
到目前为止我已经尝试过但没有奏效
strategy = tf.distribute.MirroredStrategy(['/gpu:0', '/gpu:1'])。strategy = tf.distribute.MirroredStrategy(cross_device_ops=tf.distribute.HierarchicalCopyAllReduce())按照@Kaveh 的建议添加了此内容。我怎么知道只有一个 GPU 在工作?
我watch -n 1 nvidia-smi在终端中使用了该命令并观察到只有一个 GPU 处于 100%,其余的处于 0%。
工作示例
您可以在下面的 dog_vs_cats 数据集上找到一个使用 CNN 训练的工作示例。您不需要像我使用 tfds 版本那样手动下载数据集,也不需要训练模型。
笔记本:工作示例.ipynb
保存的模型:
小智 4
它应该在单个 GPU(可能是第一个 GPU)中运行,GPU:0以处理mirrored_strategy.run(). 此外,因为您希望从副本返回梯度,mirrored_strategy.gather()所以也需要。
除此之外,还必须使用 来创建分布式数据集mirrored_strategy.experimental_distribute_dataset。分布式数据集尝试在副本之间均匀分布单批数据。下面包含有关这些要点的示例。
model.fit()、、model.predict()等等...以分布式方式自动运行,只是因为它们已经为您处理了上面提到的所有内容。
示例代码:
mirrored_strategy = tf.distribute.MirroredStrategy()
print(f'using distribution strategy\nnumber of gpus:{mirrored_strategy.num_replicas_in_sync}')
dataset=tf.data.Dataset.from_tensor_slices(np.random.rand(64,224,224,3)).batch(8)
#create distributed dataset
ds = mirrored_strategy.experimental_distribute_dataset(dataset)
#make variables mirrored
with mirrored_strategy.scope():
resnet50=tf.keras.applications.resnet50.ResNet50()
def step_fn(pre_images):
with tf.GradientTape(watch_accessed_variables=False) as tape:
tape.watch(pre_images)
outputs = resnet50(pre_images)[:,0:1]
return tf.squeeze(tape.batch_jacobian(outputs, pre_images))
#define distributed step function using strategy.run and strategy.gather
@tf.function
def distributed_step_fn(pre_images):
per_replica_grads = mirrored_strategy.run(step_fn, args=(pre_images,))
return mirrored_strategy.gather(per_replica_grads,0)
#loop over distributed dataset with distributed_step_fn
for result in map(distributed_step_fn,ds):
print(result.numpy().shape)
Run Code Online (Sandbox Code Playgroud)