小编ska*_*hal的帖子

CUDA编程:占用是在不同进程之间实现GPU切片的方式吗?

有一些方法可以实现GPU共享.我遇到了入住.我是否可以使用它在共享GPU的进程(例如tensorflow)中切片GPU?这里的切片意味着GPU资源始终专用于该过程.使用占用率我将了解GPU和SM的详细信息,并基于此我启动内核,说明为这些GPU资源创建块.
我正在使用安装了cuda 9工具包的NVIDIA公司的GK210GL [特斯拉K80]
请建议.谢谢!

cuda gpgpu cluster-computing gpu-programming tensorflow

1
推荐指数
1
解决办法
210
查看次数