标签: cudnn

如何验证CuDNN安装?

我搜索了很多地方,但我得到的是如何安装它,而不是如何验证它是否已安装.我可以验证我的NVIDIA驱动程序已安装,并且已安装CUDA,但我不知道如何验证是否已安装CuDNN.非常感谢帮助,谢谢!

PS.
这是为了实现caffe.目前一切正常,没有启用CuDNN.

cuda computer-vision caffe conv-neural-network cudnn

128
推荐指数
12
解决办法
30万
查看次数

哪个TensorFlow和CUDA版本组合兼容?

我注意到一些较新的TensorFlow版本与较旧的CUDA和cuDNN版本不兼容.是否存在兼容版本的概述,甚至是官方测试组合的列表?我在TensorFlow文档中找不到它.

compatibility cuda version tensorflow cudnn

85
推荐指数
4
解决办法
13万
查看次数

如何在具有2.0功能的GPU上运行tensorflow?

我已经在Linux Ubuntu 16.04上成功安装了tensorflow(GPU)并进行了一些小改动,以使其与新的Ubuntu LTS版本一起使用.

但是,我想(谁知道为什么)我的GPU满足了计算能力大于3.5的最低要求.事实并非如此,因为我的GeForce 820M只有2.1.有没有办法让tensorflow GPU版本与我的GPU一起工作?

我问的是这个问题,因为显然没有办法让在iOS上使用数字流GPU版本,但通过搜索互联网,我发现事实并非如此,事实上,如果不是因为这个不满足的要求,我几乎可以工作.现在我想知道GPU计算能力的这个问题是否也可以修复.

cuda nvidia tensorflow cudnn

32
推荐指数
2
解决办法
2万
查看次数

无法加载动态库“libnvinfer.so.7”

我知道这个问题已经被问了很多次,但这些建议似乎都不起作用,可能是因为我的设置有些不同:

Ubuntu          22.04
python          3.10.8
tensorflow      2.11.0
cudatoolkit     11.2.2
cudnn           8.1.0.77
nvidia-tensorrt 8.4.3.1
nvidia-pyindex  1.0.9
Run Code Online (Sandbox Code Playgroud)

home/dan/anaconda3/envs/tf/lib/python3.10/site-packages/tensorrt在我的目录中创建了一个 conda 环境“tf”

libnvinfer_builder_resource.so.8.4.3
libnvinfer_plugin.so.8
libnvinfer.so.8
libnvonnxparser.so.8
libnvparsers.so.8
tensorrt.so
Run Code Online (Sandbox Code Playgroud)

跑步时python3 -c "import tensorflow as tf; print(tf.config.list_physical_devices('GPU'))"我得到

tensorflow/compiler/xla/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer.so.7';
dlerror: libnvinfer.so.7: cannot open shared object file: No such file or directory;
LD_LIBRARY_PATH: :/home/dan/anaconda3/envs/tf/lib

tensorflow/compiler/xla/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer_plugin.so.7';
dlerror: libnvinfer_plugin.so.7: cannot open shared object file: No such file or directory;
LD_LIBRARY_PATH: :/home/dan/anaconda3/envs/tf/lib

tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Cannot …
Run Code Online (Sandbox Code Playgroud)

nvidia tensorflow cudnn tensorrt

27
推荐指数
3
解决办法
5万
查看次数

Tensorflow未在GPU上运行

我已经花了相当多的时间在堆栈溢出上挖掘,否则寻找答案,但找不到任何东西

大家好,

我正在使用Keras运行Tensorflow.我90%肯定我安装了Tensorflow GPU,有没有办法检查我做了哪个安装?

我试图从Jupyter笔记本运行一些CNN模型,我注意到Keras在CPU上运行模型(检查任务管理器,CPU为100%).

我尝试从tensorflow网站运行此代码:

# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
Run Code Online (Sandbox Code Playgroud)

这就是我得到的:

MatMul: (MatMul): /job:localhost/replica:0/task:0/cpu:0
2017-06-29 17:09:38.783183: I c:\tf_jenkins\home\workspace\release-win\m\windows\py\35\tensorflow\core\common_runtime\simple_placer.cc:847] MatMul: (MatMul)/job:localhost/replica:0/task:0/cpu:0
b: (Const): /job:localhost/replica:0/task:0/cpu:0
2017-06-29 17:09:38.784779: I c:\tf_jenkins\home\workspace\release-win\m\windows\py\35\tensorflow\core\common_runtime\simple_placer.cc:847] b: (Const)/job:localhost/replica:0/task:0/cpu:0
a: (Const): /job:localhost/replica:0/task:0/cpu:0
2017-06-29 17:09:38.786128: I c:\tf_jenkins\home\workspace\release-win\m\windows\py\35\tensorflow\core\common_runtime\simple_placer.cc:847] a: …
Run Code Online (Sandbox Code Playgroud)

nvidia keras tensorflow cudnn

25
推荐指数
3
解决办法
3万
查看次数

Tensorflow的CUDA_HOME路径

Tensorflow Linux安装指导说:

确保按照NVIDIA文档中的说明创建CUDA_HOME环境变量.

我在cuIDN v6的NVIDIA说明或NVIDIA CUDA Toolkit安装说明中找不到任何关于CUDA_HOME的提及.有谁知道如何在linux上设置这个变量?

cuda tensorflow cudnn

20
推荐指数
2
解决办法
2万
查看次数

Windows上的TensorFlow:"无法打开CUDA库cudnn64_5.dll"

Tensorflow刚刚发布了Windows支持.我安装了gpu版本和CUDA 8.0以及python 3.5.但是,在导入tensorflow后,我收到以下错误:

>>> import tensorflow
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cublas64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:119] Couldn't open CUDA library cudnn64_5.dll
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\cuda\cuda_dnn.cc:3459] Unable to load cuDNN DSO
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cufft64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library nvcuda.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library curand64_80.dll locally
Run Code Online (Sandbox Code Playgroud)

有人可以帮忙吗?谢谢!

windows tensorflow cudnn

17
推荐指数
1
解决办法
4万
查看次数

使用Fast/Faster-RCNN在C++上制作对象检测器的最简单方法是什么?

使用Fast/Faster-RCNN和Caffe在C++上制作对象检测器的最简单方法是什么?

众所周知,我们可以使用跟随RCNN(基于区域的卷积神经网络)和Caffe:

scores, boxes = im_detect(net, im, obj_proposals) 哪个叫 def im_detect(net, im, boxes):

使用rbgirshick/caffe-fast-rcnn,ROIPooling-layers和输出bbox_pred

scores, boxes = im_detect(net, im) 哪个叫 def im_detect(net, im, boxes=None):

使用rbgirshick/caffe-fast-rcnn,ROIPooling-layers和输出bbox_pred

所有这些都使用Python和Caffe,但是如何在C++和Caffe上做到这一点?

分类只有C++示例(在图像上说什么),但是没有用于检测(表示图像上的内容和位置):https://github.com/BVLC/caffe/tree/master/examples/cpp_classification

rbgirshick/caffe-fast-rcnn简单地克隆rbgirshick/py-faster-rcnn存储库 就足够了,下载预先设定的模型,使用这个coco/VGG16/faster_rcnn_end2end/test.prototxt并在CaffeNet C++分类中做了一些小改动例子./data/scripts/fetch_faster_rcnn_models.sh

如何从两层bbox_predcls_score获取输出数据?

我是否将所有(bbox_pred和cls_score)放在一个数组中:

const vector<Blob<float>*>& output_blobs = net_->ForwardPrefilled();
Blob<float>* output_layer = output_blobs[0]; …
Run Code Online (Sandbox Code Playgroud)

c++ python deep-learning caffe cudnn

16
推荐指数
1
解决办法
5371
查看次数

TensorFlow:如何记录GPU内存(VRAM)利用率?

TensorFlow总是(预)在我的显卡上分配所有空闲内存(VRAM),这是好的,因为我希望我的模拟在我的工作站上尽可能快地运行.

但是,我想记录TensorFlow真正使用的内存(总之).另外,如果我还可以记录单个张量器使用的内存量,那将是非常好的.

此信息对于衡量和比较不同ML/AI架构所需的内存大小非常重要.

有小费吗?

python vram tensorflow cudnn

16
推荐指数
1
解决办法
7510
查看次数

CuDNNLSTM: UnknownError: 找不到 dnn 实现

我已经成功运行了以 LSTM 作为第一层的模型。但出于好奇,我用 CuDNNLSTM 替换了 LSTM。但是在model.fit之后,它回复了以下错误信息:

UnknownError: Fail to find the dnn implementation.
    [[{{node cu_dnnlstm_5/CudnnRNN}} = CudnnRNN[T=DT_FLOAT, _class=["loc:@training_2/Adam/gradients/cu_dnnlstm_5/CudnnRNN_grad/CudnnRNNBackprop"], direction="unidirectional", dropout=0, input_mode="linear_input", is_training=true, rnn_mode="lstm", seed=87654321, seed2=0, _device="/job:localhost/replica:0/task:0/device:GPU:0"](cu_dnnlstm_5/transpose, cu_dnnlstm_5/ExpandDims_1, cu_dnnlstm_5/ExpandDims_1, cu_dnnlstm_5/concat_1)]]
    [[{{node metrics_3/mean_squared_error/Mean_1/_1877}} = _Recv[client_terminated=false, recv_device="/job:localhost/replica:0/task:0/device:CPU:0", send_device="/job:localhost/replica:0/task:0/device:GPU:0", send_device_incarnation=1, tensor_name="edge_4852_metrics_3/mean_squared_error/Mean_1", tensor_type=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:CPU:0"]()]]
Run Code Online (Sandbox Code Playgroud)

我在这个讨论中尝试了 TestCudnnLSTM()并成功通过了测试:

Keras 版本:2.2.4
Tensorflow 版本:1.12.0
创建模型
_______________________________________________________
层(类型)输出形状参数#   
================================================== ================
cu_dnnlstm_1 (CuDNNLSTM) (无, 1000, 1) 16        
================================================== ================
总参数:16
可训练参数:16
不可训练的参数:0
_______________________________________________________
没有任何
模型编译

看来问题是在模型拟合的时候出现的。但我不知道到底是什么问题?

lstm cudnn

15
推荐指数
3
解决办法
1万
查看次数