日记(周末)

    今天就先写完博客的日记吧。

    首先是昨天做了一套比赛题,咳咳,刷了一点比赛题的水题,话说,首先,最水的题,我没做,不知道为什么很晚才A,我感觉,以后比赛,我们队的水题,还是交给我吧,谁叫我做的水题多那,(经验丰富)qaq。其实这套题的难度应该是一次递增的,也是做完后才发现,这套题真好,可惜我们刚开始还在研究最后两个题,我看了这场比赛当时的排名总榜。最后也没几个A出来的。当然,首先得说一下,比赛得失,有一道应该做出来的数位dp题没做出来。我承认是我的锅。直接模拟就上了,TLE,不过,虽然这道数位dp是思路很简单的数位dp,但它涉及到了十六进制的问题,让我进一步认识到了c语言输入的好用。还有时间卡的好像有点紧,博弈论没做出来,当然是ayf还没掌握好,不过,据他研究后说,这道博弈不算好做。看过总榜后感觉,距离银牌还有段距离,但是有很多题是我们的知识应该能够出的,但是没有做出来。其实这就问题来了。做一道题,为何知识点会了,没做出来。咳咳,以前都是知识点不会。分析一下,应该一般有两方面原因,一部分是知识,知识点不牢固,或者有的小知识点不熟悉,二是思维,就是没想到这里。这次的数位dp,在我看来是知识居多,思维也有,我估计就算我一上来写数位dp,以我写的数位dp,估计会TLE,想到不TLE的那一步估计得花很长时间。所以,以后要多巩固知识点,做题练思维。练思维当然是dp题了,好好干吧。

      然后做了点小题,当然,有些比较水,但也要找规律啊,qaq。现在只能说是复习算法了。其实,做的题,越多,越感觉自己代码能力增长比较快,可能我做的模拟类,搜索类题目比较多,一般写完代码,只要思路不错。发现很少需要调试了。毕竟经常模拟很多数运算。就相当于写高精度了。

     然后看了下算法导论的动态规划,复习,并加深学习了一下,发现,很久之前可能并没有那么多dp,只是后人,认为这些dp很像,就归为一类了吧,比如算法导论上对区间dp的讲解,就没有加任何修饰,只是说,它满足动态规划的使用条件,就可以这样dp。还算是复习了2-sat的图论问题,并对,强连通分量,做了复习,也可以叫连通性,都是用的一个算法。

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值