Kon*_*lph 17 c++ cuda raii placement-new
我现在开始使用CUDA并且不得不承认我对C API有点失望.我理解选择C的原因,但是语言基于C++而不是,有几个方面会更简单,例如设备内存分配(via cudaMalloc).
我的计划是这样做我自己,用重载operator new与安置new和RAII(两种选择).我想知道到目前为止我是否有任何警告.代码似乎工作,但我仍然想知道潜在的内存泄漏.
RAII代码的用法如下:
CudaArray<float> device_data(SIZE);
// Use `device_data` as if it were a raw pointer.
Run Code Online (Sandbox Code Playgroud)
也许一个类在这种情况下是过度的(特别是因为你仍然必须使用cudaMemcpy,该类只封装RAII)所以另一种方法是放置new:
float* device_data = new (cudaDevice) float[SIZE];
// Use `device_data` …
operator delete [](device_data, cudaDevice);
Run Code Online (Sandbox Code Playgroud)
这里,cudaDevice仅作为触发过载的标签.但是,由于在正常放置中new这将指示放置,我发现语法奇怪地一致,甚至可能更喜欢使用类.
我很欣赏各种批评.是否有人知道是否计划为下一版本的CUDA(正如我所听到的那样,将改进其C++支持,无论它们的含义是什么).
所以,我的问题实际上有三个:
new超载语义正确?它会泄漏内存吗?// Singleton tag for CUDA device memory placement.
struct CudaDevice {
static CudaDevice const& get() { return instance; }
private:
static CudaDevice const instance;
CudaDevice() { }
CudaDevice(CudaDevice const&);
CudaDevice& operator =(CudaDevice const&);
} const& cudaDevice = CudaDevice::get();
CudaDevice const CudaDevice::instance;
inline void* operator new [](std::size_t nbytes, CudaDevice const&) {
void* ret;
cudaMalloc(&ret, nbytes);
return ret;
}
inline void operator delete [](void* p, CudaDevice const&) throw() {
cudaFree(p);
}
template <typename T>
class CudaArray {
public:
explicit
CudaArray(std::size_t size) : size(size), data(new (cudaDevice) T[size]) { }
operator T* () { return data; }
~CudaArray() {
operator delete [](data, cudaDevice);
}
private:
std::size_t const size;
T* const data;
CudaArray(CudaArray const&);
CudaArray& operator =(CudaArray const&);
};
Run Code Online (Sandbox Code Playgroud)
关于这里使用的单身人士:是的,我知道它的缺点.但是,这些与此无关.我在这里需要的只是一个不可复制的小型标签.其他所有内容(即多线程注意事项,初始化时间)都不适用.
我会选择新的方法.然后我将定义一个符合std :: allocator <>接口的类.理论上,您可以将此类作为模板参数传递给std :: vector <>和std :: map <>等等.
请注意,我听说做这些事情充满了困难,但至少你会以这种方式学习更多关于STL的知识.而且您不需要重新发明容器和算法.
| 归档时间: |
|
| 查看次数: |
8572 次 |
| 最近记录: |