小编Ove*_*ver的帖子

加载minibatches的有效方式<gpu memory

我有以下场景:

  • 我的数据集>> gpu内存
  • 我的miniatches <gpu memory ...这样根据大小,我可以同时在内存中容纳10个,同时仍然可以训练没问题.

我的数据集的大小意味着我不会重新访问数据点,所以我认为没有必要让它们共享?还是有吗?我想也许最多有10个共享初始化变量size = mini-batch是有益的,这样我就可以一次交换10个而不是一次交换一个.此外,是否可以并行预装小批量?

theano

2
推荐指数
1
解决办法
731
查看次数

标签 统计

theano ×1