NOIp2017 游记

NOIp竞赛经历与反思

从11-10-2017 NOIp Day0始, 11-21-2017 初评成绩发布日止;


 

Day2 T1 翻车要滚粗了;

把double赋给了int, 有40分已经算个奇迹了, 毕竟每个点都能卡掉int, 更不用说还有精度误差了;


 

Day 0

坐车去日照, 中午到的, 报道后吃了饭就回宿舍了;

晚上试机没什么毛病, 就是键盘很难用;

晚上没睡好, 但感觉问题不大;


 

Day 1

起晚了, 急匆匆去超市买了咖啡, 橙汁和柠檬茶;

进考场之前喝了咖啡, 很凉;

看题;

T1感觉可以找规律;

T2第一遍没好好看, 感觉不可做, 后来发现是个模拟;

T3感觉像一种经典题型...;

T1做了快两个小时没推出来, 发现T2是个模拟, 想着放掉T1把这个A掉也不错;

快打完发现T2漏了好多条件, 很慌就回去想T1, 灵光一现找出规律;

T2十几分钟打了50分的, T3骗分, 编译成功就没管;

考完回宿舍T1规律找对了, T2自己造的数据过了, 感觉50分很悬, 但大概30分是有了;

下午打了会牌基本没赢过, 晚上听歌啥的又这么过去了;

今天只喝了一口橙汁;


 

Day 2

依旧买了咖啡, 柠檬茶昨天喝完了没再买(不是很喜欢), 还买了点糖, 巧克力和一点饼干;

进考场;

看题感觉比昨天舒服多了;

很快打了T1, 大小样例都过了很自信(年轻的我:));

T2开始打了个MST + 暴力, 过了小样例, 大样例GG, 发现算法有问题;

还好我没慌, 先打了T3的暴力模拟, 30分应该稳了;

开始gangT2, 想了很多思路, 分层图什么的, 想到了状压DP但不会设计状态什么的;

最后打了40分的, 不知道稳不稳;

下午回去了, 感觉就GG了;


 

然后就开始各种梦游, 文化课没好好学, 班主任又逼着去考了期中;


 

大概就这样完咯, 诸位省选或文化课加油吧.

转载于:https://www.cnblogs.com/DreifxP/p/7861641.html

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值