小编mcb*_*mcb的帖子

在不复制内存的情况下重复 pytorch 张量

是否pytorch支持在不分配更多内存的情况下重复张量?

假设我们有一个张量

t = torch.ones((1,1000,1000))
t10 = t.repeat(10,1,1)
Run Code Online (Sandbox Code Playgroud)

重复t10 次需要占用 10 倍的内存。有没有办法在t10不分配更多内存的情况下创建张量?

是一个相关的问题,但没有答案。

memory pytorch tensor

7
推荐指数
1
解决办法
1334
查看次数

标签 统计

memory ×1

pytorch ×1

tensor ×1