13、基于点云的CGH计算在CPU上的加速策略

基于点云的CGH计算在CPU上的加速策略

1. 并行计算与内存需求

在进行相关计算时,如果有可用的点,我们可以进行并行计算。为此,我们准备了与目标点数相同数量的伽马射线。计算所需的内存需要更多的缓冲区来存储伽马(gamma)、德尔塔(delta)和西塔(theta)。测试机器有8个逻辑CPU,各缓冲区大小如下:
- 伽马缓冲区大小:线程数 × 浮点数大小 × 目标点数 = 32Nobj
- 德尔塔缓冲区大小:线程数 × 浮点数大小 × 目标点数 = 32Nobj
- 西塔缓冲区大小:线程数 × 浮点数大小 × 目标点数 = 32Nobj

使用的内存量会增加96Nobj字节,所需内存量高度依赖于目标点数。这对于高分辨率对象来说是一个主要问题,在这种情况下,无论计算速度如何,计算都可能无法进行。

采用适合CPU的算法后,计算速度几乎提高了一倍,具体性能如下表所示:
| Nobj | 计算时间 [s] | 加速率 | 使用内存 [MiB] (12Nobj + 4Nhol + 96Nobj) |
| ---- | ---- | ---- | ---- |
| 710 | 0.21 | 136.96 (1.85) | 7.98 (0.01 + 7.91 + 0.07) |
| 44,647 | 11.20 | 163.28 (1.97) | 12.51 (0.51 + 7.91 + 4.09) |
| 978,416 | 1,908.04 | 21.39 (0.99) | 108.68 (11.20 + 7.91 + 89.58) |

2. 使用查找表减少延迟

与最初

基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的Koopman算子的递归神经网络模型线性化”展开,旨在研究纳米定位系统的预测控制问题,并提供完整的Matlab代码实现。文章结合数据驱动方法与Koopman算子理论,利用递归神经网络(RNN)对非线性系统进行建模与线性化处理,从而提升纳米级定位系统的精度与动态响应性能。该方法通过提取系统隐含动态特征,构建近似线性模型,便于后续模型预测控制(MPC)的设计与优化,适用于高精度自动化控制场景。文中还展示了相关实验验证与仿真结果,证明了该方法的有效性和先进性。; 适合人群:具备一定控制理论基础和Matlab编程能力,从事精密控制、智能制造、自动化或相关领域研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①应用于纳米级精密定位系统(如原子力显微镜、半导体制造设备)中的高性能控制设计;②为非线性系统建模与线性化提供一种结合深度学习与现代控制理论的新思路;③帮助读者掌握Koopman算子、RNN建模与模型预测控制的综合应用。; 阅读建议:建议读者结合提供的Matlab代码逐段理解算法实现流程,重点关注数据预处理、RNN结构设计、Koopman观测矩阵构建及MPC控制器集成等关键环节,并可通过更换实际系统数据进行迁移验证,深化对方法泛化能力的理解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值