标签: nvidia

PyTorch 无法看到 GPU(torch.cuda.is_availble() 返回 False)

我有一个问题在哪里

import torch
print(torch.cuda_is_available())
Run Code Online (Sandbox Code Playgroud)

将打印 False,并且我无法使用可用的 GPU。我已经在环境中进行了尝试conda,我安装了与我拥有的 NVIDIA 驱动程序相对应的 PyTorch 版本。我也在 docker 容器中尝试过,我也做了同样的事情。我已在远程服务器上尝试过这两个选项,但都失败了。我知道我已经安装了正确的驱动程序版本,因为我在安装 PyTorch 之前检查了版本nvcc --version,并且检查了nvidia-smi可以正确显示机器上 GPU 的 GPU 连接。

另外,我检查了这篇文章并尝试导出CUDA_VISIBLE_DEVICES,但没有运气。

在服务器上,我有 NVIDIA V100 GPU,CUDA 版本为 10.0(适用于 conda 环境),在我构建的 docker 容器上有版本 10.2。任何帮助或推动正确的方向将不胜感激。谢谢!

gpu nvidia pytorch

5
推荐指数
1
解决办法
2万
查看次数

适用于 NVIDIA opengl 应用程序的 Docker xserver(主机中没有 X)

我正在尝试创建一个 Docker 映像,该映像使用 NVIDIA GPU 为 OpenGL 无头应用程序运行 X 服务器。(可用于创建纹理、在没有屏幕的情况下运行 Unity3D 等)。在这种情况下,主机不运行 X 服务器,我想在容器内完成所有操作。

我正在使用这个 Dockerfile 作为图像:

FROM ubuntu:18.04
    
ENV DEBIAN_FRONTEND=noninteractive
    
RUN apt update && \
        apt install -y \
        libglvnd0 \
        libgl1 \
        libglx0 \
        libegl1 \
        libgles2 \
        xserver-xorg-video-nvidia-440    
    
COPY xorg.conf.nvidia-headless /etc/X11/xorg.conf

ENV NVIDIA_VISIBLE_DEVICES all
ENV NVIDIA_DRIVER_CAPABILITIES graphics
ENV DISPLAY :1
    
    ENTRYPOINT ["/bin/bash"]
Run Code Online (Sandbox Code Playgroud)

对于 xorg.config.nvidia-headless 我用 nvidia-xconfig 创建了它

Section "ServerLayout"
    Identifier     "Layout0"
    Screen      0  "Screen0"
EndSection

Section "Files"
EndSection

Section "Module"
    Load           "dbe"
    Load           "extmod"
    Load           "type1"
    Load …
Run Code Online (Sandbox Code Playgroud)

opengl ubuntu nvidia headless docker

5
推荐指数
1
解决办法
4282
查看次数

RTX 3070 与 Pytorch 的兼容性

具有 CUDA 功能 sm_86 的 NVIDIA GeForce RTX 3070 与当前 PyTorch 安装不兼容。当前的 PyTorch 安装支持 CUDA 功能 sm_37 sm_50 sm_60 sm_70。

所以我目前正在尝试训练神经网络,但遇到了这个问题。我的 GPU 型号似乎与我的 PyTorch 版本不兼容。

我的 nvcc -V 的输出是:

Cuda compilation tools, release 11.4, V11.4.48
Build cuda_11.4.r11.4/compiler.30033411_0
Run Code Online (Sandbox Code Playgroud)

我的 PyTorch 版本是 1.9.0。

我尝试将 CUDA 版本从最初的 10 更改为 11.4,但没有任何变化。任何帮助将不胜感激。

gpu nvidia deep-learning pytorch

5
推荐指数
1
解决办法
2万
查看次数

未检测到 CUDA 路径。如果 CuPy 加载失败,请设置 CUDA_PATH 环境变量

C:\\Users\\jkim4\\Anaconda3\\lib\\site-packages\\cupy\\_environment.py:213: UserWarning: CUDA path could not be detected. Set CUDA_PATH environment variable if CuPy fails to load.\n  warnings.warn(\nTraceback (most recent call last):\n  File "C:\\Users\\jkim4\\Anaconda3\\lib\\site-packages\\cupy\\__init__.py", line 16, in <module>\n    from cupy import _core  # NOQA\n  File "C:\\Users\\jkim4\\Anaconda3\\lib\\site-packages\\cupy\\_core\\__init__.py", line 1, in <module>\n    from cupy._core import core  # NOQA\n  File "cupy\\_core\\core.pyx", line 1, in init cupy._core.core\n  File "C:\\Users\\jkim4\\Anaconda3\\lib\\site-packages\\cupy\\cuda\\__init__.py", line 8, in <module>\n    from cupy.cuda import compiler  # NOQA\n  File "C:\\Users\\jkim4\\Anaconda3\\lib\\site-packages\\cupy\\cuda\\compiler.py", line 12, in <module>\n    from cupy.cuda import function\n  File "cupy\\cuda\\function.pyx", line 1, in …
Run Code Online (Sandbox Code Playgroud)

python nvidia cupy

5
推荐指数
1
解决办法
1万
查看次数

如何使用 JavaFX 强制使用 GPU?

我将 JavaFX 与 Java 8 结合使用,并在启动应用程序之前设置了此属性。
System.setProperty("prism.forceGPU","true");
System.setProperty("prism.order","d3d,sw");
棱镜的详细模式为我提供了以下内容:

Prism pipeline init order: d3d sw
Using native-based Pisces rasterizer
Using dirty region optimizations
Not using texture mask for primitives
Not forcing power of 2 sizes for textures
Using hardware CLAMP_TO_ZERO mode
Opting in for HiDPI pixel scaling
Threshold to enable UI scaling factor: 1.5
Prism pipeline name = com.sun.prism.d3d.D3DPipeline
Loading D3D native library ...
        succeeded.
D3DPipelineManager: Created D3D9Ex device
Direct3D initialization succeeded
(X) Got class = class com.sun.prism.d3d.D3DPipeline
Initialized prism …
Run Code Online (Sandbox Code Playgroud)

java directx gpu javafx nvidia

5
推荐指数
1
解决办法
1309
查看次数

无法安装 CUDA:警告未选择驱动程序,但 nvidia-smi 运行良好

  • 操作系统:Ubuntu 22.04.1
  • Python 3.8.1(康达)
  • 显卡:RTX4090
  • Nvidia 驱动程序:530.30.02

当我设置Deep Learning的环境时,我发现在pytorch中,torch.cuda.is_available()函数始终为False。我多次尝试更换pytorch的版本,cpu版本安装成功,但是gpu版本无法安装。服务器之前可能以错误的方式安装了CUDA(nvcc --version不起作用,但我可以看到很多像CUDA-11.4这样的文件),所以我尝试安装CUDA 12.1并删除之前的文件。但还是无法安装CUDA。

当我第一次检查 nvidia-smi 时,输出如下:

Mon Apr 24 11:16:34 2023       
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 530.30.02              Driver Version: 530.30.02    CUDA Version: 12.1     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                  Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf            Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  NVIDIA GeForce RTX 4090         On | 00000000:05:00.0 Off |                  Off |
|  0%   42C    P8               12W / 450W| …
Run Code Online (Sandbox Code Playgroud)

installation ubuntu cuda nvidia

5
推荐指数
1
解决办法
6758
查看次数

CUDA程序导致nvidia驱动程序崩溃

我的monte carlo pi计算CUDA程序导致我的nvidia驱动程序在我超过500次试验和256个完整程序段时崩溃.它似乎发生在monteCarlo内核函数中.非常感谢.

#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
#include <curand.h>
#include <curand_kernel.h>


#define NUM_THREAD 256
#define NUM_BLOCK 256



///////////////////////////////////////////////////////////////////////////////////////////
///////////////////////////////////////////////////////////////////////////////////////////

// Function to sum an array
__global__ void reduce0(float *g_odata) {
extern __shared__ int sdata[];

// each thread loads one element from global to shared mem
unsigned int tid = threadIdx.x;
unsigned int i = blockIdx.x*blockDim.x + threadIdx.x;
sdata[tid] = g_odata[i];
__syncthreads();

// do reduction in shared mem
for (unsigned int s=1; s < blockDim.x; s *= 2) { …
Run Code Online (Sandbox Code Playgroud)

crash cuda driver nvidia

4
推荐指数
2
解决办法
7823
查看次数

点对点CUDA转移

我听说过点对点内存传输并阅读有关它的内容,但无法真正理解这与标准PCI-E总线传输相比有多快.

我有一个使用多个gpu的CUDA应用程序,我可能对P2P传输感兴趣.我的问题是:与PCI-E相比有多快?我可以经常使用它来让两个设备相互通信吗?

p2p cuda bandwidth nvidia pci-e

4
推荐指数
1
解决办法
3331
查看次数

Nvidia visual studio Nsight CPU和GPU调试

NVIDIA Nsight Visual Studio Edition似乎无法同时调试CPU(主机代码)和GPU(cuda代码).使用Nsight Eclipse Edition(或cuda-gdb)这非常简单,例如,您可以从主机执行"介入"到CUDA内核.如何使用Visual Studio做同样的事情?

debugging cuda remote-debugging nvidia visual-studio-2012

4
推荐指数
1
解决办法
3381
查看次数

为什么我的CUDA实现与CPU实现同样快

我在标准C++和CUDA中创建了一些代码,用于在1300x1300灰度图像和15x15内核上进行2D聚合.两个版本:

中央处理器:

#include <iostream>
#include <exception>

#define N 1300
#define K 15
#define K2 ((K - 1) / 2)


template<int mx, int my>
inline int index(int x, int y)
{
  return x*my + y;
}

int main() {
  double *image  = new double[N * N];
  double *kernel = new double[K * K];
  double *result = new double[N * N];

  for (int x=0; x<N; ++x)
  for (int y=0; y<N; ++y)
  {
    double r = 0;
    for(int i=0; i<K; ++i)
    for(int j=0; …
Run Code Online (Sandbox Code Playgroud)

c++ cuda nvidia convolution

4
推荐指数
1
解决办法
450
查看次数