总结

  今天对这几周学习的知识进行了一次笔试和机试。虽然常说一次考试不能决定什么,但是一直都是从考试中反馈学习效果。

  从自己的敲代码的熟练程度来看,就知道自己对以往的知识遗忘了很多。以前随手而来的代码,隔了一段时间没有敲,再写起来不仅生疏,还出现啦很多不该出现的错误。看到题目的时候觉得不是很难,基本上的功能性效果都是以前做过的,但是真到敲代码的时候就魔障啦。先是在数据库上栽跟斗,出现不必要的低级错误,浪费了很大一部分时间,后来在写页面代码的时候更是惨不忍睹的犯配置文件里面的数据库名称都忘记改的低级错误。虽然把基本的样子做出来啦但是毫无可观性,自己也知道很多地方的代码很不完善,有的地方代码就敲了一半,是迄今为止做的最差的一次,可能也有一定看到时间花费了一半有点急了的原因,但主要还是自己基本功不扎实的原因。

  正如艾宾浩斯的遗忘曲线,在最开始学习的时候对知识也许了解的很清楚,可是在之后不到一天的时间里就会遗忘的可能只剩下30%左右。而在后来的时间里,一般写代码的格式都是差不多的,个人懒惰性的原因直接表现在页面上就是对基本要求的实现,不会管美观效果,完善程度。也就很少会去触及到其他的知识,长此也就是需要什么样的效果就选择性的看相关的代码、知识,并不是所谓的复习,可以说是被动性的去查看知识点,查看使用完之后由于不是常用就会再次依照遗忘曲线的方式遗忘。很多时候知道自身的这种缺点,有时候可能会想改变,但是都是“三分热度”的折腾几天就又开始懒下来啦。

内容概要:《中文大模型基准测评2025年上半年报告》由SuperCLUE团队发布,详细评估了2025年上半年中文大模型的发展状况。报告涵盖了大模型的关键进展、国内外大模型全景图及差距、专项测评基准介绍等。通过SuperCLUE基准,对45个国内外代表性大模型进行了六大任务(数学推理、科学推理、代码生成、智能体Agent、精确指令遵循、幻觉控制)的综合测评。结果显示,海外模型如o3、o4-mini(high)在推理任务上表现突出,而国内模型如Doubao-Seed-1.6-thinking-250715在智能体Agent和幻觉控制任务上表现出色。此外,报告还分析了模型性价比、效能区间分布,并对代表性模型如Doubao-Seed-1.6-thinking-250715、DeepSeek-R1-0528、GLM-4.5等进行了详细介绍。整体来看,国内大模型在特定任务上已接近国际顶尖水平,但在综合推理能力上仍有提升空间。 适用人群:对大模型技术感兴趣的科研人员、工程师、产品经理及投资者。 使用场景及目标:①了解2025年上半年中文大模型的发展现状与趋势;②评估国内外大模型在同任务上的表现差异;③为技术选型和性能优化提供参考依据。 其他说明:报告提供了详细的测评方法、评分标准及结果分析,确保评估的科学性和公正性。此外,SuperCLUE团队还发布了多个专项测评基准,涵盖多模态、文本、推理等多个领域,为业界提供全面的测评服务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值