SD2C第一天

作者参加SD2C中国软件开发技术大会首日经历分享,从签到流程的不合理到部分演讲内容的不满,再到从钱宏武老师的课程中获得的收获。

SD2C--中国软件开发技术大会2.0,今天是第一天,开始是失望,后 来是气愤,最后终于平和下来。现在知道微软Tech.ed的会议组织有多好了。 且听我把一天的经历一一道来:

早晨,签到工作人员告诉我:按姓式拼音排序;然后所有姓李的、姓刘的 排了一个超长的队伍,为什么要这样排队呢?因为主办方设计的胸卡上面是有 与会者姓名的。在那个长长的队伍里面好多人第一次因为自己的姓氏而苦恼。 错在哪里?

  1. 签到作为一个服务应该是无状态的,现在它要做一 个对应工作,其实就是作成了一个有状态的服务。
  2. 与会者的身份确 认是要与会者自己来做的,他自己把自己的与会卡放到一个空的胸牌里面就可 以了,但是这样简单的一件事情变的复杂了:原因就是这件事情让签到的人做 ,违反了 责任单一原则!
  3. 排队的方法显然是想把服务成本转到与会 者身上,可惜巨大的负载均衡失误让工作人员手忙脚乱

上午的会议延时,下午所有课程顺延;第一堂课我就炸了,课程名字是2.0 时代的软件和开发工具,但是从一开始就开始鼓吹自己的IDE,诋毁微软的开发 工具,很没有教养的叫嚣着自己的东西有多强,自己有多强;即使你很强,拿 出大家风范好不好?如果你很强,拿出让我们惊讶的东西来秀一下好不好?
旁边潘加宇老师说:“理解,理解,这是赞助厂商”
本来认为是一 场盛会,没有料到原来很娱乐,看你方唱罢我登场
做开发的牛人我见到 很多,这样的人第一次,即使你很牛,借用一句郭德纲的话:“哪儿都好就是 人品次”

最大的收获来自钱宏武老师的课程以及晚上的交流,真的实践中积累的宝 贵经验。

不写了,用《武林外传》的台词:洗洗睡吧
坚强2002和你一起回头再说...
MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值