Molehill 2D 研究2

通过改进坐标计算方式并使用矩阵变换处理顶点坐标,显著提升了Molehill2D引擎的渲染效率,实现了25*25帧动画的同时稳定显示,远超位图渲染方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

搁置了半个月的Molehill2D研究重新开始,是因为今天在研究3D的时候发现之前的有一个做法是有问题的。

而明白这个问题之后之前StarM2D效率比位图渲染方式还要低的情况就真相大白了。

 

 

context3D.setVertexBufferAt(0, vertexBuffer, 0, Context3DVertexBufferFormat.FLOAT_3);

context3D.setVertexBufferAt(1, vertexBuffer, 3, Context3DVertexBufferFormat.FLOAT_2);

 

context3D.setProgramConstantsFromMatrix(Context3DProgramType.VERTEX, 0, matrix, true);

 

重点简而言之如下:

之前的做法是每次render都执行一次 vertexBuffer.uploadFromVector(vertices, 0, 4);

vertices是根据坐标进行计算所得,目前看来这种做法的问题就是实际显示的顶点坐标还是由cpu运算所得,所以效率很低。

现在的做法是,vertexBuffer是保存起来的,一般只在第一遍创建之后执行一次 vertexBuffer.uploadFromVector(vertices, 0, 4);

所有的坐标变换都用一个对应的matrix去处理,所以render时只要传入保存下来的vertexBuffer和对应的matrix即可。

 

看看变态的效率:

Molehill 2D 研究2

 

25*25 = 625帧动画同时显示

625*2 = 1250个三角形同时显示

帧频稳定的30帧左右

 

远超之前所做的位图渲染方式的效率

 

看到这样的效率,继续StarM2D的想法瞬间爆发

接下来就是沿着位图渲染引擎的老路,逐渐把其他一些功能实现

 

从各方面考量,Molehill2D引擎的开发比Molehill3D引擎的开发简单很多,时间上也会少非常多。

所以六月份先搁置Molehill3D的研究,以实现一个基本功能比较完善的Molehill2D引擎为目标!

内容概要:本文档详细介绍了基于MATLAB实现的多头长短期记忆网络(MH-LSTM)结合Transformer编码器进行多变量时间序列预测的项目实例。项目旨在通过融合MH-LSTM对时序动态的细致学习和Transformer对全局依赖的捕捉,显著提升多变量时间序列预测的精度和稳定性。文档涵盖了从项目背景、目标意义、挑战与解决方案、模型架构及代码示例,到具体的应用领域、部署与应用、未来改进方向等方面的全面内容。项目不仅展示了技术实现细节,还提供了从数据预处理、模型构建与训练到性能评估的全流程指导。 适合人群:具备一定编程基础,特别是熟悉MATLAB和深度学习基础知识的研发人员、数据科学家以及从事时间序列预测研究的专业人士。 使用场景及目标:①深入理解MH-LSTM与Transformer结合的多变量时间序列预测模型原理;②掌握MATLAB环境下复杂神经网络的搭建、训练及优化技巧;③应用于金融风险管理、智能电网负荷预测、气象预报、交通流量预测、工业设备健康监测、医疗数据分析、供应链需求预测等多个实际场景,以提高预测精度和决策质量。 阅读建议:此资源不仅适用于希望深入了解多变量时间序列预测技术的读者,也适合希望通过MATLAB实现复杂深度学习模型的开发者。建议读者在学习过程中结合提供的代码示例进行实践操作,并关注模型训练中的关键步骤和超参数调优策略,以便更好地应用于实际项目中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值