我以第三种方式失败了.t3
还在CPU上.不知道为什么.
a = np.random.randn(1, 1, 2, 3)
t1 = torch.tensor(a)
t1 = t3.to(torch.device('cuda'))
t2 = torch.tensor(a)
t2 = t2.cuda()
t3 = torch.tensor(a, device=torch.device('cuda'))
Run Code Online (Sandbox Code Playgroud) 我的 LSTM 模型存在不确定性问题,我读到应该在 CUBLAS_WORKSPACE_CONFIG 环境变量中设置单个缓冲区大小,其中:
CUBLAS_WORKSPACE_CONFIG=:4096:2
Run Code Online (Sandbox Code Playgroud)
我正在使用 Anaconda 1.9.12 和 Python 3.7 以及 cudaToolkit 11.0.221。我不知道在哪里插入该指令(除了我知道它不在我的 python 代码中;-)
任何指示都是非常受欢迎的。在此先感谢您的帮助
我正在运行Python程序,但我没有GPU,我该怎么做才能让Python使用CPU而不是GPU?
$ python extract_feature.py --data mnist --net checkpoint_4.pth.tar --features pretrained
Run Code Online (Sandbox Code Playgroud)
它给了我以下警告:
=> 运行时错误:尝试在 CUDA 设备上反序列化对象,但 torch.cuda.is_available() 为 False。如果您在仅使用 CPU 的计算机上运行,请使用 torch.load 和 map_location=torch.device('cpu') 将存储映射到 CPU。
照片是我的Python项目的结构:
Pytorch 项目应该在 GPU 上运行。我想在我的笔记本电脑上仅使用 CPU 运行它。有很多地方调用.cuda()
模型、张量等,在cuda不可用时执行失败。是否可以在不更改所有代码的情况下做到这一点?