盘点2016

年年有计划,岁岁有复盘,今天是2016年的最后一天。我也来回忆一下我的2016年,展望一下2017年。
记得去年的跨年是和几个朋友在一块儿的过的,记得当时玩儿了麻将,我输了,当时很不爽,转眼之间一年又过去了,和去年的我相比,今年更多了些许惆怅,少了一些无忧无虑,可能是因为快要毕业的缘故吧。
记得去年春节之后,来到学校后我,我决定要好好学习,我辞去了我在某分期的兼职工作,的确那份工作干的有点累了,厌烦了同事之间的尔虞我诈。之后我又拒绝了一些同学,朋友邀请的所谓靠谱的创业项目,开始专心的学习。
在大三的时候挂了一科模拟电路,听学长说这一科挂了之后很难过的,我很担心啊,我怕我自己不能毕业,得留级。所以我在这学期的课余,一直在学习模拟电路这么学科,希望自己可以通过,一开始看书的 时候一点有看不懂,一看就困的不行,但是我一想过不了,就得留级啊,所以还是坚持了下来,后来看了一遍又一遍之后,慢慢的发现自己竟然看懂了(ps:看来我也是有学霸的潜质的。。。。。),学期末,自然就不用说了,努力了一学期,各科全过(模电还是高分过得哦),比较完美的结束了自己的大三生活。
马上要进入大四了,同学之间开始出现分化,都开始规划自己的人生,一部分选择了考研,报了考研班,还有一些同学选择了考公务员或直接找了公司去实习去了。
我选择了一家培训公司,开始了自己的IT培训,本来以为自己会选择去干销售的,但是觉得自己应该干一点和自己专业相关的事,不应该完全摒弃自己的专业。所以毅然决然的开始了自己培训生涯。记得当时是7月12号开的班,转眼之间5个多月过去了,我也从一个技术大白变成了一个菜鸟级的猿猿了!!在大学的前几年里,我要么在创业,要么在做一些销售的工作,所以在技术这一块儿差的很多,所以来到培训班之后,我一直在很努力的学习,希望可以弥补自己的差距。到目前为止,我也不确定自己是否补上了那些差距,但是我很享受这段努力的过程。
一年过得好快,这一年,我努力了,希望来年可以找个好工作!!
写于16年12月31日18点14分,谨以此文回忆我的2016!!

内容概要:本文详细探讨了基于樽海鞘算法(SSA)优化的极限学习机(ELM)在回归预测任务中的应用,并与传统的BP神经网络、广义回归神经网络(GRNN)以及未优化的ELM进行了性能对比。首先介绍了ELM的基本原理,即通过随机生成输入层与隐藏层之间的连接权重及阈值,仅需计算输出权重即可快速完成训练。接着阐述了SSA的工作机制,利用樽海鞘群体觅食行为优化ELM的输入权重和隐藏层阈值,从而提高模型性能。随后分别给出了BP、GRNN、ELM和SSA-ELM的具体实现代码,并通过波士顿房价数据集和其他工业数据集验证了各模型的表现。结果显示,SSA-ELM在预测精度方面显著优于其他三种方法,尽管其训练时间较长,但在实际应用中仍具有明显优势。 适合人群:对机器学习尤其是回归预测感兴趣的科研人员和技术开发者,特别是那些希望深入了解ELM及其优化方法的人。 使用场景及目标:适用于需要高效、高精度回归预测的应用场景,如金融建模、工业数据分析等。主要目标是提供一种更为有效的回归预测解决方案,尤其是在处理大规模数据集时能够保持较高的预测精度。 其他说明:文中提供了详细的代码示例和性能对比图表,帮助读者更好地理解和复现实验结果。同时提醒使用者注意SSA参数的选择对模型性能的影响,建议进行参数敏感性分析以获得最佳效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值