小编BS.*_*BS.的帖子

使TensorFlow使用通过自定义CUDA例程即时生成的训练数据

假设我们生成了自己的训练数据(例如,从某个扩散过程中采样并计算了一些感兴趣的量),并且我们拥有自己的CUDA例程,称为generate_data,该例程在GPU内存中为给定的一组输入生成标签。

因此,我们处于一种特殊的设置中,可以“在线”方式生成任意数量的训练数据(在每个批次迭代中,我们都调用generate_data例程以生成新批次并丢弃旧批次)。

由于数据是在GPU上生成的,有没有办法使TensorFlow(Python API)在训练过程中直接使用它?(例如填充一个占位符)这样,这样的管道将是有效的。

我的理解是,当前您需要在这样的设置中将数据从GPU复制到CPU,然后让TensorFlow将数据再次从CPU复制到GPU,这在执行不必要的复制时非常浪费。

编辑:如果有帮助,我们可以假定CUDA例程是使用Numba的CUDA JIT编译器实现的。

python gpu-programming tensorflow

11
推荐指数
1
解决办法
214
查看次数

标签 统计

gpu-programming ×1

python ×1

tensorflow ×1