是否pytorch支持在不分配更多内存的情况下重复张量?
pytorch
假设我们有一个张量
t = torch.ones((1,1000,1000)) t10 = t.repeat(10,1,1)
重复t10 次需要占用 10 倍的内存。有没有办法在t10不分配更多内存的情况下创建张量?
t
t10
这是一个相关的问题,但没有答案。
memory pytorch tensor
memory ×1
pytorch ×1
tensor ×1