标签: cuda

用于 cuda 开发的最佳 Linux 发行版

有人可以建议用于 CUDA 开发的最佳 linux 发行版。我之所以这么问,是因为我尝试在 Fedora 12 中安装最新的 cuda SDK,这真是让人头疼。我花了 8 个小时才移除 nouveau 驱动程序并安装了 nvidia 驱动程序。在那之后,操作系统以某种方式决定采取行动并将 /var/log/message 文件炸毁到 9 GB 并耗尽我所有剩余的空间,并出现奇怪的错误。我什至不明白发生了什么,但我的 Nvidia 驱动器不再工作了。请不要喷我,我不是 windows 粉丝或任何东西。我从 2002 年开始使用 Linux,实际上很喜欢它。这只是我的个人经历。对于积极的建议真的很有帮助。粉丝们,请留一旁。

提前致谢。

linux cuda

8
推荐指数
1
解决办法
1万
查看次数

Ubuntu 12.04 中的 NVIDIA 图形驱动程序

所以我的总体目标是我希望能够使用支持 CUDA 的应用程序进行编码。但是,经过多天的搜索,使用安装演练,并在驱动程序失败后无数次重新安装......我现在在这里作为最后的手段。

我无法让 Ubuntu 12.04 LTS 为我的 GeForce GT 540M NVIDIA 显卡安装 NVIDIA 295.59 驱动程序。

我的主要系统规格如下......(我相信英特尔处理器可能是问题所在)

戴尔笔记本电脑 XPS L502X 英特尔® 酷睿™ i7-2620M CPU @ 2.70GHz × 4 英特尔集成显卡 64 位 NVIDIA GeForce GT 540M Ubuntu 12.04 LTS 所有其他规格都无关紧要,除非我忘记了什么?

尝试过的方法:aptitude install nvidia-current(所有软件包)

结果:什么都没发生。附加驱动程序菜单中没有任何内容,NVIDIA X Server 设置应用程序也不允许访问,因为它认为没有安装 NVIDIA X Server。


从 nvidia.com 下载驱动程序。通过 /boot/grub/grub.cfg 在 grub 启动菜单中设置 nomodeset 到控制台并关闭 lightdm。安装了驱动,却提示预安装失败?(意味着什么?)再次启动lightdm。

结果:NVIDIA X Server 设置仍然没有注意到。甚至尝试多次执行 nvidia-xconfig。我还进入了配置文件以确保驱动程序设置为“nvidia”。


aptitude install nvidia-173(所有软件包)

结果:找不到 xorg-video-abi-10 虚拟包。它无处可寻,到处都是 ubuntu 论坛没有答案。很多人都遇到了这个问题。


这在 Windows 中很容易完成,只需下载驱动程序并在 Visual Studio 中调试,完全没有问题。我想要关于我应该如何去做的明确的分步说明。我对 linux 比较陌生,但我可以很好地找到自己的方法,所以你不是在和一个直接的初学者交谈。另外,如果您认为另一个线程可能有答案,请发布,因为我很难找到我的特定类型的问题。 …

drivers cuda installation ubuntu-12.04

8
推荐指数
1
解决办法
4万
查看次数

如何检查CUDA计算能力?

我只是玩玩名为 Meshroom 的开源软件。 https://github.com/alicevision/meshroom

其中一个名为 DepthMap 的进程给出了一个错误: 该程序需要一个支持 CUDA 的 GPU(至少具有 2.0 的计算能力)。

在维基百科 ( https://en.wikipedia.org/wiki/CUDA ) 上,我读到我的显卡:GeForce GT 650M 具有计算能力 3.0。

我可以检查CUDA计算能力吗?

有什么我错过的吗?或者这应该是 Meshroom 软件中的错误?

gpu graphics-card cuda

8
推荐指数
1
解决办法
1万
查看次数

是否有任何外部 CUDA 设备?

我有一个带有最新图形适配器的工作站:Nvidia Gefore FX3700。由于我想将该适配器用于长时间运行的 CUDA 程序,因此不在同一设备上同时运行我的桌面图形可能非常有用。不幸的是,我无法将更多的图形板插入那台机器。所以我搜索并发现显示链接可能是一个解决方案:不将 FX3700 用于图形,而是用于 CUDA,然后将 DisplayLink 用于桌面。当我读到这篇文章时,我想:“等等!不要将普通的图形板插入计算机,而是将高性能的 CUDA 设备插入计算机,这将是非常棒的”,这将具有便携的巨大优势。

但我想这是不可能的,因为我假设没有外部接口具有能够进行高性能计算(例如类似于 PCIe)的内存带宽,对吗?

cuda

7
推荐指数
1
解决办法
1万
查看次数

英特尔 OpenCL 实现是否同时使用 CPU 和 GPU?

最近我编写了同一个程序的几个版本(生成 Julia Sets - 分形图片,大小为 17200x17200 像素)来检查几个不同解决方案的性能。

我写的版本:

  • CPU (pthreads) - 252s/1 个线程、131s/2 个线程、114s/3 个线程、95s/4 个线程
  • CUDA - 2.51 秒;)
  • OpenCL - GPU Nvidia 实现为 3.39s,CPU Intel 实现为 16.51s

测试平台:Intel Core i5 520M、GeForce 330M

我的问题是:如何解释 OpenCL CPU 得分?我预计标准实现的结果接近 4 个线程 - 大约 95 秒,但花费的时间要少得多。当程序运行时,CPU 忙于 390%。怎么会这样?

OpenCL 是否同时使用我的 Core i5 和集成的英特尔核芯显卡?

performance opencl cuda

6
推荐指数
1
解决办法
1809
查看次数

CUDNN ERROR:无法获得卷积算法

我在使用源编译的 Tensorflow 构建的 Keras 上运行卷积网络时遇到问题。我正在使用 CUDA 10.0 和 CuDNN 7.4,并且都已正确编译,如它们的示例生成文件所验证。当我运行 conv net 但不是密集网络时,我最终会收到这些错误:

UnknownError: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above.
 [[{{node conv2d_1/convolution}}]]
 [[metrics/acc/Mean/_169]]
Run Code Online (Sandbox Code Playgroud)

我尝试将 CUDA 和 CuDNN 的路径直接附加到我的路径中,尝试重新安装和重新编译 TensorFlow,但没有结果。版本冲突应该没有任何问题,因为这是在这台机器上全新安装。

import keras
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D, Dropout
from keras.datasets import mnist
import sys

def one_hot(data, num_categories):
    oh = np.zeros((len(data),num_categories))
    for …
Run Code Online (Sandbox Code Playgroud)

python cuda ubuntu

6
推荐指数
1
解决办法
8988
查看次数

Pycharm 调试器不适用于 pytorch 和深度学习

这个问题介于 Stackoverflow 和 Superuser 之间——至少在我看来,所以如果这是错误的地方(在你看来 ;)),请随时向我指出 SO。

问题:

如果我在我的 python 代码中放置一个断点,调试器就会停止。如果我想进入下一行,它会这样做。 除非它发生在枚举(数据加载器)之后。我可以在 enumerate(dataloader) 之后放置一个断点,调试器也会停止。但是,我不能一步。如果我在 enumerate(dataloader) 之前放置断点并跨过 enumerate 行,也会发生同样的情况。在 enumerate(..) 之后,它不适用于该行。

有趣的事实是,它直到最近才起作用 - 就像一周前

# Breakpoints work, stepping over works
...
for epoch in range(num_epochs):
    for i, data in enumerate(dataloader, 0):
        # If I break before this line and I step until the next, I can not step afterwards
        netD.zero_grad()
        # Breakpoints work, stepping does not
Run Code Online (Sandbox Code Playgroud)

我试图解决这个问题:

  • 我卸载了 PyCharm 并重新安装了它。
  • 我尝试使用社区版。
  • 我尝试使用和不使用 cython 调试器扩展来运行两个版本。
  • 我检查了我在停止工作后安装了哪些东西并删除了它们。
  • 我在 Jetbrains、SO 和 Pytorch 论坛上查看了大量帖子。发现一些看起来很有趣,但实际上它们不适合我的问题。 …

python cuda ubuntu debugger pycharm

6
推荐指数
1
解决办法
1732
查看次数

Understanding pixel format and profile when encoding 10-bit video in ffmpeg with nvenc

I am trying to encode a 10-bit H.265 video from a 8-bit H.264 source using ffmpeg with CUDA hardware acceleration.

Without hardware acceleration, a typical command would be ffmpeg -i input.mkv -pix_fmt yuv420p10le -c:v libx265 -crf 21 -x265-params profile=main10 out.mkv.

Using CUDA (on a Pascal 1050 Ti), I expect the corresponding command to be ffmpeg -i input.mkv -pix_fmt yuv420p10le -c:v hevc_nvenc -profile:v main10 -cq 21 out.mkv.

However, when I list the supported encoder settings using ffmpeg -h encoder=hevc_nvenc …

ffmpeg cuda h.265

6
推荐指数
2
解决办法
3万
查看次数

使用 FFmpeg 每 N 秒准确提取帧

用法

\n

我使用从视频中提取图像ffmpeg

\n

我每 10 秒(含 10 秒)转储一张缩小的图像,并将其组合成蒙太奇imagemagick。当将滑块悬停在基于网络的视频播放器中时,这些蒙太奇再次用于显示视频预览。(计算要显示蒙太奇中的哪个图像)。

\n

命令

\n

经过尝试后,我最终得到了以下命令,其中的想法是速度而不是质量:

\n
ffmpeg \\\n    -loglevel error \\\n    -hwaccel cuvid \\\n    -hwaccel_output_format cuda \\\n    -c:v h264_cuvid \\\n    -i "$video_file" \\\n    -r 0.1 \\\n    -filter:v "scale_cuda=w=-1:h=100,thumbnail_cuda=2,hwdownload,format=nv12" \\\n    -color_range 2 \\\n    f%09d.jpg\n
Run Code Online (Sandbox Code Playgroud)\n

这看起来效果很好。镜头有时会落后 \xc2\xb1 0.5 - 1 秒,但还算可以接受。

\n

问题

\n

问题是ffmpeg在视频开始时会产生一张额外的图像。例如文件是:

\n
file             time\nf000000001.jpg   00:00:00\nf000000002.jpg   00:00:00\nf000000003.jpg   00:00:10\nf000000004.jpg   00:00:20\nf000000005.jpg   00:00:30\n...\n
Run Code Online (Sandbox Code Playgroud)\n

有时第一和第二会相差几毫秒。

\n

据我所知(现在)我可以简单地删除第一个图像并继续处理其余图像,但不确定为什么会发生这种情况以及它是否是错误或其他原因。

\n

换句话说:我需要知道前两个帧的“效果”是否可靠,以便我ffmpeg也可以在其他版本中删除它。

\n

当我使用图像来显示 10 秒时。如果我不删除生成的第一张图像,则指定时间的视频快照 …

video ffmpeg cuda

6
推荐指数
1
解决办法
4973
查看次数

Windows 上的 EC2 GPU 实例

我在 Amazon EC2 GPU 实例上安装 CUDA Toolkit 时遇到了很多麻烦。我尝试使用来自 Amazon 的 HVM Windows 2008 Server AMI 以及在 g2.xlarge 实例上启动的 NVIDIA GPU 映像。

我通过 RDP(远程桌面协议)连接到实例。

我从 NVIDIA 网站下载了适用于 windows vista 7 8 DEsktop 64 位的 CUDA 5.5 Toolkit。每次我尝试安装这个工具包时,我都会从 NVIDIA 安装程序中得到同样的错误:找不到 NVIDIA 兼容卡。

是因为我通过 RDP 连接吗?我尝试遵循:http : //adnanboz.wordpress.com/2012/01/06/how-to-set-up-amazon-ec2-windows-gpu-instance-for-nvidia-cuda-development/

但是我在安装 CUDA Toolkit 时被卡住了。

Windows 的亚马逊文档非常稀少:

http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using_cluster_computing.html#install-nvidia-driver-windows

再次安装驱动程序抱怨无论我启动通过 TightVNC 还是通过 RDP 连接的驱动程序安装程序,它都找不到 NVIDIA 卡。

任何指针?

windows cuda amazon-ec2

5
推荐指数
1
解决办法
4056
查看次数