我搜索了很多地方,但我得到的是如何安装它,而不是如何验证它是否已安装.我可以验证我的NVIDIA驱动程序已安装,并且已安装CUDA,但我不知道如何验证是否已安装CuDNN.非常感谢帮助,谢谢!
PS.
这是为了实现caffe.目前一切正常,没有启用CuDNN.
我已经在Linux Ubuntu 16.04上成功安装了tensorflow(GPU)并进行了一些小改动,以使其与新的Ubuntu LTS版本一起使用.
但是,我想(谁知道为什么)我的GPU满足了计算能力大于3.5的最低要求.事实并非如此,因为我的GeForce 820M只有2.1.有没有办法让tensorflow GPU版本与我的GPU一起工作?
我问的是这个问题,因为显然没有办法让在iOS上使用数字流GPU版本,但通过搜索互联网,我发现事实并非如此,事实上,如果不是因为这个不满足的要求,我几乎可以工作.现在我想知道GPU计算能力的这个问题是否也可以修复.
我知道这个问题已经被问了很多次,但这些建议似乎都不起作用,可能是因为我的设置有些不同:
Ubuntu 22.04
python 3.10.8
tensorflow 2.11.0
cudatoolkit 11.2.2
cudnn 8.1.0.77
nvidia-tensorrt 8.4.3.1
nvidia-pyindex 1.0.9
Run Code Online (Sandbox Code Playgroud)
home/dan/anaconda3/envs/tf/lib/python3.10/site-packages/tensorrt
在我的目录中创建了一个 conda 环境“tf”
libnvinfer_builder_resource.so.8.4.3
libnvinfer_plugin.so.8
libnvinfer.so.8
libnvonnxparser.so.8
libnvparsers.so.8
tensorrt.so
Run Code Online (Sandbox Code Playgroud)
跑步时python3 -c "import tensorflow as tf; print(tf.config.list_physical_devices('GPU'))"
我得到
tensorflow/compiler/xla/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer.so.7';
dlerror: libnvinfer.so.7: cannot open shared object file: No such file or directory;
LD_LIBRARY_PATH: :/home/dan/anaconda3/envs/tf/lib
tensorflow/compiler/xla/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer_plugin.so.7';
dlerror: libnvinfer_plugin.so.7: cannot open shared object file: No such file or directory;
LD_LIBRARY_PATH: :/home/dan/anaconda3/envs/tf/lib
tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Cannot …
Run Code Online (Sandbox Code Playgroud) 我刚刚开始进行CUDA编程,而且它的功能非常好,我的GPU已经被认可了.我在这里使用这个非常有用的指南在Visual Studio中部分设置了Intellisense:
http://www.ademiller.com/blogs/tech/2010/10/visual-studio-2010-adding-intellisense-support-for-cuda-c/
和这里:
http://www.ademiller.com/blogs/tech/2011/05/visual-studio-2010-and-cuda-easier-with-rc2/
但是,Intellisense仍然没有像这样接受内核调用:
// KernelCall.cu
#include <iostream>
#include "cuda.h"
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
__global__ void kernel(void){}
int main()
{
kernel<<<1,1>>>();
system("pause");
return 0;
}
Run Code Online (Sandbox Code Playgroud)
行内核<<< 1,1 >>>()用红色下划线,特别是第一个左边的一个箭头,错误读数为"Error:expected and expression".但是,如果我将鼠标悬停在该函数上,则会正确显示其返回类型和参数.它仍然编译得很好,我只是想知道如何摆脱这个小烦恼.
我们可以用:
with torch.cuda.amp.autocast():
loss = model(data)
Run Code Online (Sandbox Code Playgroud)
为了将操作转换为混合精度。
另一件事是我们可以用来 model.half()
将所有模型权重转换为半精度。
FP16
(为了创建更大的模型和更短的训练时间),我需要什么?我需要使用 model.half()
还是正在使用torch.cuda.amp
(根据上面的链接)?我有一个 Nvidia GeForce GTX 770,它是 CUDA 计算能力 3.0,但是在 GPU 上运行 PyTorch 训练时,我收到警告
Found GPU0 GeForce GTX 770 which is of cuda capability 3.0.
PyTorch no longer supports this GPU because it is too old.
The minimum cuda capability that we support is 3.5.
Run Code Online (Sandbox Code Playgroud)
以及随后的错误RuntimeError: CUDA error: no kernel image is available for execution on the device
。
是否有旧的 PyTorch 版本支持像我这样具有 CUDA 功能 3.0 的显卡?如果是,哪个版本以及在哪里可以找到此信息?是否有一个表格可以在其中找到支持的 CUDA 版本和兼容性版本?
如果相关的话,我已经安装了 CUDA 10.1。
我正在使用Nvidia GTX Titan X进行深度学习实验.我使用nvidia-smi监视GPU运行状态,但是提供的工具的perf(ormance)状态没有意义.
我查看了nvidia-smi手册,它说如下:
性能状态GPU的当前性能状态.状态范围从P0(最高性能)到P12(最低性能).
如果不在GPU上运行任何进程(空闲状态),GPU性能状态为p0.但是,当运行一些计算繁重的过程时,状态变为p2.
我的问题是,为什么我的GPU在空闲时处于P0状态,但在运行繁重的计算任务时切换到P2?不应该相反吗?
另外,有没有办法让我的GPU始终以P0状态运行(最高性能)?
如果我想处理复数并对内核中的这些复数双数进行简单的数学运算(加法和乘法),我应该在程序中包含哪些CUDA标题?
在C++中,我可以将常数与复数double相乘,只要它们都是双精度.然而,在CUDA我得到很多的错误,当我尝试做简单的数学运算到复杂的双重>取值,只要它不与其他复杂的双重>.我错过了什么?
谢谢!
我想使用NVIDIA TensorRT来运行我的Tensorflow模型.Currenly,TensorRT支持Caffe原型文本网络描述符文件.
我无法找到将Tensorflow模型转换为Caffe模型的源代码.有没有解决方法?
我在主机代码中使用cuFFT库调用它们工作正常,但我想从内核调用cuFFT库.早期版本的CUDA没有这种支持,但动态并行性可能吗?
如果有任何关于如何实现这一点的例子,那将是很棒的.
cuda ×6
nvidia ×5
cudnn ×3
tensorflow ×3
gpu ×2
pytorch ×2
tensorrt ×2
caffe ×1
cufft ×1
intellisense ×1