- 博客(1)
- 收藏
- 关注
原创 简单的MPI+Fortran95实现
作为比较“古老”的多核多线程并行技术,MPI已逐渐被CUDA等异构编程所取代。两者有本质区别,前者是一种库函数,面向编程语言本身,利用特定语句来指定CPU中各线程来分工完成任务。后者在GPU上实现,利用的主要是GPU具有大量运算单元的优势,从硬件本身来实现并行。若要从程序本身上实现并行,MPI实现并行计算则更加有优势。MPI是一种消息传递编程模型,目的是服务于进程间的通信。使用者需要一定的进程消息传递的空间想象能力。建议参考书高性能计算之并行编程技术。
2022-09-12 21:52:46
2591
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅