小编Sag*_*uti的帖子

ctypes c_char_p的不同行为?

我对不同版本的python的这种行为感到困惑,不明白为什么?

Python 2.7.5 (default, Aug 25 2013, 00:04:04) 
[GCC 4.2.1 Compatible Apple LLVM 5.0 (clang-500.0.68)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> c="hello"
>>> a=ctypes.c_char_p(c)
>>> print(a.value) 
hello

Python 3.3.5 (default, Mar 11 2014, 15:08:59) 
[GCC 4.2.1 Compatible Apple LLVM 5.0 (clang-500.2.79)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> c="hello" 
>>> a=ctypes.c_char_p(c)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
TypeError: bytes or integer address expected instead …
Run Code Online (Sandbox Code Playgroud)

python ctypes python-2.7 python-3.x

15
推荐指数
1
解决办法
6382
查看次数

Nsight Eclipse Cuda + opencv

我用cuda5.5安装了nsight.一切正常,但我试图在主机上运行opencv函数来生成图像.我包括opencv头路径以及我需要的libs路径.当我尝试编译它给出这个错误/Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin/../lib/clang/5.0/include/emmintrin.h(274): error: identifier "__builtin_ia32_cmpsd" is undefined 任何人都知道可能是什么原因?或者任何方式让opencv与nsight eclipse一起工作?谢谢!

eclipse opencv cuda clang nsight

13
推荐指数
1
解决办法
1552
查看次数

是否可以在设备功能中调用cufft库调用?

我在主机代码中使用cuFFT库调用它们工作正常,但我想从内核调用cuFFT库.早期版本的CUDA没有这种支持,但动态并行性可能吗?

如果有任何关于如何实现这一点的例子,那将是很棒的.

cuda nvidia cufft

8
推荐指数
1
解决办法
1363
查看次数

在 C 中为 Fortran 数组分配内存

我是 Fortran 编程的新手。我有一个 3 维数组,声明如下

REAL*4, DIMENSION(:,:,:), ALLOCATABLE :: a1
Run Code Online (Sandbox Code Playgroud)

我想通过引用 C 或 C++ 函数来传递数组,并在 C 而不是 fortran 中分配内存。是否有可能或者我理解 fortran 中的数组概念有误?

c fortran

6
推荐指数
1
解决办法
2472
查看次数

Pycuda中memcpy_htod和to_gpu的区别?

我正在学习PyCUDA,在浏览pycuda.gpuarray的文档时,我对pycuda.driver.memcpy_htod(也是_dtoh)和pycuda.gpuarray.to_gpu(也是get)函数之间的区别感到困惑.根据gpuarray 文档,.get().

例如,将self的内容传输到数组或新分配的numpy.ndarray.如果给出了数组,则它必须具有正确的大小(不一定是形状)和dtype.如果未给出,则pagelocked指定是否为新阵列分配页锁定.

这是说.get()的实现方式与pycuda.driver.memcpy_dtoh完全相同吗?不知何故,我认为我错误地解释了它.

cuda gpu numpy pycuda

4
推荐指数
1
解决办法
1108
查看次数

CUDA设备功能如何工作?

__device__来自内核的CUDA设备函数调用(定义)是否与主机函数类似,即它是否涉及在堆栈上推送返回地址并推送堆栈上的变量并在返回时检索?

如果是,那么在这种情况下使用哪个内存用于堆栈?(缓存,共享或全局)

cuda nvidia

2
推荐指数
1
解决办法
473
查看次数

cuFFT分析问题

我试图获取cuFFT库调用的分析数据,例如plan和exec.我正在使用nvprof(命令行分析工具),选项为"--print-api-trace".除了cuFFT apis之外,它打印所有api的时间.是否需要更改任何标志以获取cuFFT分析数据?或者我需要使用事件并测量自己?

cuda nvidia cufft

0
推荐指数
1
解决办法
216
查看次数

Nvidia GPU 上的内存带宽测试

我尝试使用 nvidia 发布的代码并进行内存带宽测试,但得到了一些令人惊讶的结果

使用的程序在这里:https : //developer.nvidia.com/content/how-optimize-data-transfers-cuda-cc

在桌面上(使用 MacOS)

Device: GeForce GT 650M
Transfer size (MB): 16

Pageable transfers
Host to Device bandwidth (GB/s): 4.053219
Device to Host bandwidth (GB/s): 5.707841

Pinned transfers
Host to Device bandwidth (GB/s): 6.346621
Device to Host bandwidth (GB/s): 6.493052
Run Code Online (Sandbox Code Playgroud)

在 Linux 服务器上:

Device: Tesla K20c
Transfer size (MB): 16

Pageable transfers
Host to Device bandwidth (GB/s): 1.482011
Device to Host bandwidth (GB/s): 1.621912

Pinned transfers
Host to Device bandwidth (GB/s): 1.480442
Device to Host …
Run Code Online (Sandbox Code Playgroud)

cuda nvidia

0
推荐指数
1
解决办法
1万
查看次数

标签 统计

cuda ×6

nvidia ×4

cufft ×2

c ×1

clang ×1

ctypes ×1

eclipse ×1

fortran ×1

gpu ×1

nsight ×1

numpy ×1

opencv ×1

pycuda ×1

python ×1

python-2.7 ×1

python-3.x ×1