并行科学计算中的 I/O 性能与外延表面生长模拟研究
1. MPI - IO 在 PVFS2 上的性能
由于 HDF5 和 PnetCDF 都依赖 MPI - IO 进行实际文件访问,因此先探讨纯 MPI - IO 性能。通过用户空间的 PVFS2 ROMIO 驱动访问 PVFS2,该驱动不进行客户端缓存,所以操作系统文件缓存不影响性能。
1.1 访问方法
研究了两种完全不同的 MPI - IO 访问方法:
- 无文件数据类型(Level 0 和 Level 1) :独立访问称为“Level 0”,集体访问称为“Level 1”。
- 使用文件数据类型(Level 2 和 Level 3) :独立访问称为“Level 2”,集体访问称为“Level 3”,这种方法可在一次操作中处理非连续访问模式。
1.2 优化选项
每种方法还结合了以下优化进行测试:
- 优化(Optimize) :客户端应用程序在将请求传递给 MPI - IO 或存储库之前,尝试将相邻请求分组为更大的请求。
- 类型化(Typed) :使用一维数组类型(基类型为 double)代替二维双精度数组,但类型化和非类型化测试的性能差异不显著,因此相关数据未在图中展示。
- 集体操作(Collective) :使用 MPI File write all 代替 MPI File write </
超级会员免费看
订阅专栏 解锁全文
741

被折叠的 条评论
为什么被折叠?



