Nos*_*All 61
OpenMP是一种在共享内存设备上编程的方法.这意味着并行性发生在每个并行线程都可以访问所有数据的位置.
您可以将其视为:for通过在不同线程之间拆分循环,可以在执行特定循环期间发生并行操作.
MPI是一种在分布式存储设备上编程的方法.这意味着并行性发生在每个并行进程在其自己的内存空间中工作而与其他进程隔离的情况下.
您可以将其视为:您编写的每一段代码都由每个进程独立执行.并行性的发生是因为您完全根据其进程ID告诉每个进程他们应该处理的全局问题的哪个部分.
当然,编写OpenMP和MPI程序的方式也非常不同.
Con*_* Ma 15
MPI代表消息传递接口.它是一组关于消息传递的API声明(例如发送,接收,广播等),以及应该从实现中预期的行为.
"消息传递"的想法相当抽象.它可能意味着在本地进程或跨网络主机分布的进程之间传递消息等.现代实现非常难以通用并抽象出多个底层机制(共享内存访问,网络IO等).
OpenMP是一个API,它可以使(可能)更容易编写共享内存多处理程序.没有传递信息的概念.相反,使用一组标准函数和编译器指令,您可以编写并行执行本地线程的程序,并控制这些线程的行为(它们应该访问哪些资源,如何同步它们等).OpenMP需要编译器的支持,因此您也可以将其视为受支持语言的扩展.
并且应用程序可以同时使用MPI和OpenMP并不罕见.
| 归档时间: |
|
| 查看次数: |
33349 次 |
| 最近记录: |