GPU上的图形算法

sca*_*man 21 cuda gpu graph-theory

当前的GPU线程在某种程度上是有限的(内存限制,数据结构的限制,没有递归...).

你认为在GPU上实现图论问题是可行的吗?例如顶点覆盖?主导集?独立集?max clique?....

在GPU上使用分支定界算法是否可行?递归回溯?

Pra*_*are 28

你会感兴趣的

  1. 用并行图算法探索GPU的极限

  2. 使用CUDA在GPU上加速大图算法.

  • 让我们添加同时出现的这个:[Accelerating CUDA Graph Algorithms at Maximum Warp](http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.220.1923&rep=rep1&type=pdf )。对于某些图表,它比您链接到的第二个结果有显着改善。 (2认同)

Nat*_*han 5

这与您的问题密切相关,但我已经实现了一个“递归”回溯算法,用于枚举格子上的“自我避免行走”(注意:堆栈是在 CUDA 内核中模拟的,以避免创建局部变量的开销对于一大堆函数调用)。可以有效地做到这一点,所以我相信这可以适应图形理论背景。这是有关该主题的研讨会的链接,在那里我对单指令多数据 (SIMD) 范式中的回溯进行了一些一般性讨论;这是一个大约 1MB 大小的 pdf http://bit.ly/9ForGS

我并不声称了解关于 GPU 上图理论算法的更广泛的文献,但希望以上内容能有所帮助。

(@TheMachineCharmer,感谢提供链接。)