基于GPU架构的分组密码性能预测模型
在当今数据加密领域,图形处理单元(GPU)凭借其软件灵活性和硬件计算性能,在高速加密处理大量数据方面备受关注。然而,由于分组密码原语众多,GPU架构也因不同厂商而各异,这使得程序员在实现加密时往往需要反复试验。为解决这一问题,本文提出了一种基于GPU架构的分组密码性能预测模型。
1. 背景与动机
随着数据量的不断增长,对高速加密处理的需求也日益迫切。GPU因其并行计算能力,成为了处理大量数据加密的理想选择。但分组密码的多样性(如CRYPTREC和NESSIE推荐的众多密码列表)以及不同厂商(Nvidia、AMD、Intel和ARM等)提供的各种GPU架构,导致分组密码与GPU架构的组合数量成倍增加。这使得程序员在实现加密时面临诸多挑战,需要通过反复尝试来找到最佳实现方案。
如果存在一个能够预测分组密码在GPU上实现性能的模型,程序员就可以提前预估性能提升率,从而更高效地进行开发。此外,这样的模型还能为适合GPU架构的下一代加密算法设计提供参考。
2. 相关工作
在性能预测领域,已有一些相关研究,但都存在一定的局限性。
- 分组密码原语的性能估计 :Matsui曾采用类似的方法计算AES和Camellia在x86 64处理器上的延迟。他通过将S盒和指令的延迟与其数量相乘,然后求和得到整体加密延迟。但这种方法对于GPU程序员来说具有挑战性,因为GPU架构的原生汇编语言(如Nvidia SASS)缺乏统一性。
- GPU应用的性能预测 :
- Kotohapalli等人提出了一个针对Nvidia GP
超级会员免费看
订阅专栏 解锁全文
1135

被折叠的 条评论
为什么被折叠?



