期末总结

通过一学期贺老师的数据结构课程学习,掌握了使用蓝墨云班课和csdn博客辅助学习的方法,体验了新颖的教学模式,了解到如何从整体角度解决问题,如树表查找等,并感受到团队合作的重要性。

        不知不觉跟着贺老师学习了一个学期的数据结构了,虽然感觉这个课程蛮难的,但是还是收获颇丰。首先呢,贺老师的授课理念非常新颖,蓝墨云班课和csdn博客VS传统课堂,着实增添了不少吸引力。蓝墨云班课里老师将每节知识的讲解录制成视频,我们在学习过程中非常方便的多次观看并进行更深层次的学习和理解,相比较于传统课堂一味的讲解书本知识的另一个优点就是除了跟着PPT我们能够记的为数不多的笔记,老师有更多的时间课堂上给我们系统的讲解解决问题的整体思路,小到数据结构习题和编程知识的解决,大到通过相关知识点的解题思路教授我们工作的处理方法。例如,树表的查找就教会了我们“根节点”到“分支节点”的省时查找。生活中我们便可以跟知识点的解决一样将任务分配下去......另外,csdn的应用使得学习过程可视化,相互竞争的意识增强,同时同学之间有了交流的平台,思想以及特色都可以相互分享,相互学习。

        对于个人而言,对于老师的良苦用心没有在最大程度上利用。对于这门课程感觉真的很难,新颖的教学模式相比较一板一眼的课堂一点一滴的做笔记了解有点难以适应,编程还是有很多困难的,很多知识点不能灵活运用,只是老师说用到哪个,重新看一遍书,才能勉强做到照着葫芦画瓢。

       总之,真的很感谢老师一学期以来的鼓励指导,虽然这一学期的数据结构接近尾声,但是真心实意的想继续关注贺老师的蓝墨云班课,这里面的资源真的是对我的学习生活用很大帮助,我会继续努力的

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值