Leo*_*ckl 5 python gpu numpy pytorch
我正在使用 PyTorch。我有以下代码:
import numpy as np
import torch
X = np.array([[1, 3, 2, 3], [2, 3, 5, 6], [1, 2, 3, 4]])
X = torch.DoubleTensor(X).cuda()
X_split = np.array_split(X.numpy(),
indices_or_sections = 2,
axis = 0)
X_split
Run Code Online (Sandbox Code Playgroud)
但我收到此错误:
---------------------------------------------------------------------------
TypeError Traceback (most recent call last)
<ipython-input-121-870b5d3f67b6> in <module>()
----> 1 X_prime_class_split = np.array_split(X_prime_class.numpy(),
2 indices_or_sections = 2,
3 axis = 0)
4 X_prime_class_split
TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.
Run Code Online (Sandbox Code Playgroud)
错误消息很清楚,我知道如何通过仅包含.cpu()
, ie 来修复此错误。X_prime_class.cpu().numpy()
。我只是想知道这是否证实 numpy 数组不能在 GPU/Cuda 中运行?
不,您通常不能在 GPU 阵列上运行 numpy 函数。PyTorch 重新实现了 numpy 中 PyTorch 张量的大部分功能。例如,torch.chunk
工作原理与此类似,np.array_split
因此您可以执行以下操作:
X = np.array([[1, 3, 2, 3], [2, 3, 5, 6], [1, 2, 3, 4]])
X = torch.DoubleTensor(X).cuda()
X_split = torch.chunk(X, chunks=2, dim=0)
Run Code Online (Sandbox Code Playgroud)
它会分裂X
成多个张量,而无需将其X
从 GPU 上移开。