本文的重点不会在技术相关上,关于微调的分类、特点等等,互联网上精妙的文章比比皆是,我更想分享可能比技术更重要的、也是绝大多数新手程序员可能认为是无用之术的——营销。
面试,在本质上是把自己推销给面试官,在技术岗上,这意味着需要把自己包装成“能解决问题的人”,说服对方购买自己这个“商品”。对于行业内的人,自然是把自己之前在工作中的成绩亮出来即可。可对于一个想要入行的算法小登,之前做的各种微调项目可能把里面训练的模型参数加起来也不到一个商业级大模型的参数量;在AutoDL上为了微调项目总共花费的经费加起来不如导师一天的烟钱,和他要经费的时候还告诉你“等到你的论文见刊的时候就报销”。

经历过的人一定懂我在说什么,实验室十几个人排队用3张卡,想要快速做出结果最好是在平台上租卡,大部分时候还是用把自己的钱填进去。
总而言之,你做出来的微调项目,不管微调技术有多新、指标有多明显的提升,在大厂的眼里一定是玩具。不过即使是玩具,一个“好的”玩具,也能展现出自己作为一个新人的业务思维和潜力。
下面就以做一个微调项目的各个阶段来讲一讲:如何像一个真正的大模型算法岗员工一样做微调。
01 扔掉那些把饭喂到嘴里的教程
最差的微调项目一定来自于1:1复刻的项目。
你可能之前从来没有接触过大模型微调项目,所以当你得知在找一份实习之前最好做一些相关的项目来充实自己的简历。于是你将目光放在了最多人做,也是最容易复刻的一些微调项目上。这些项目可能来自于bilibili搜索栏,你按着简介里说的发送评论,等待up主回复你一个公众号名称或者一个神秘链接(还可能要付费),最后通过百度网盘获得了一份宝贵的数据,然后你完全跟着视频的指引,10秒一个暂停地做完了整个微调。如果稍微懂一些,会在github上找star比较多的微调项目,跟着README.md一步接一步地做完微调。
如果能够有幸凭这样的项目进入了面试环节,标准结局会是在面试官一轮接一轮对于你使用的微调技术细节方面死死问,直到你招架不住,说出:“这一点我还没想清楚,还需要下来多了解一下”。
这是必然的,因为整个项目几乎毫无深度,在其他方面没有什么深挖的必要。数据?伸手要的。代码?github上借的/使用的训练框架。评测?github项目上自带的。面试官只能在技术细节上提问来凑够面试时长。并且这种项目除了等待模型跑完进度条之外就不需要花费什么时间,几乎是一天就能完成的项目,面试官自然是期待你的工作量在技术上。

工作量达标了吗?
况且在实际生产中,你是几乎不可能碰训练代码的,所以确定说,使用的微调方法具体是怎么实现的可以说是无足轻重。那么最重要的是什么呢?
02 数据!数据!数据!
数据可以说是整个项目中最重要的一个环节,是决定项目成败的最关键因素,也是大模型算法岗中Post Training方向最重要的资源。数据的选取、处理、清洗和构建,才是决定一个微调项目是否有“灵魂”的关键。
在一个微调项目中,数据量是不需要太大的。目前主流的观点认为,数据的质量和多样性比数据的量级更加重要,大量的噪声和单一的数据构成都会使得模型训练产生偏误。所以不需要担心你能够处理的数据有限,1000条数据也能把6B的模型训练出美妙的loss曲线。
第一,先抛弃掉互联网上随处可见的训练数据,如果你要用imdb做训练,面试官很有可能把你的模型在测试集上的指标都猜出来。我建议你最好能够爬取一份你感兴趣的数据集作为项目的支撑,这可以是用《甄嬛传》的对白训练一个喜欢角色的复刻机器人,用自己的微信聊天记录训练另一个自己,甚至用百度贴吧里大量的脏话训练出“祖安机器人”。

达标了。
这些“自制”数据集的最大优势,不在于数据量的庞大,而在于它们独特且贴近实际业务场景。这不仅能体现你的技术动手能力,更能展示你对业务的敏感度和创新意识。哪怕你只爬取了几百条数据,依然会有很不错的效果。
在实际工作中(对于Post Training方向),数据处理也是接触的最频繁的工作。面对纷繁复杂、体量巨大的原始数据,如何精准筛选出高价值的部分(如果数量不足,如何使用合成数据的方法补充体量),并高效通过处理流程,正是一个微调项目中最精华的部分,微调技术的选用相比之下都称得上是细枝末节。
我要训练一个“ChatXiaoDeng”,那么从何处获取数据呢?最合适的当然是微信。应该选取和谁的聊天记录呢?如果只是和身边人的,明显数据就有了偏误,所以还要加上一些群聊中的发言。如果要使得模型有多轮对话能力,最好的当然是在prompt中写入上文,那么在取数据的时候,上文的开头是什么呢?应该是一段对话的开头,那么选取的开头发言相对于更上一句发言应该间隔1个小时才能保证选取的上文是独立的……通过不断的思考和对数据筛选逻辑的调整,最终才能获取到适合于微调的数据集。
03 像工程师一样做评测
在处理好第一版的训练数据后,下一步是火急火燎地开始找模型做微调吗?如果是的话,你经过数个小时的等待,粘贴好cursor生成的inference代码,经过一番调试环境后急不可耐地测试自己调教的甄嬛说话像不像本人。在和莞嫔聊了一下午后,你感觉你就是大模型微调的天才,立马将这几天的成果写进了简历。在一周后的面试上,你兴致勃勃地和面试官介绍起了“嬛嬛seek”的微调过程,期待面试官会赞许你的动手能力,结果对方第一个问题是:你是怎么评测你这个模型效果的?
这时候,你愣住了。你觉得模型输出的语气、措辞、风格都挺像的,自己和它聊得也很开心,但这只是你的主观感受。但是,“像是这么回事”就够了吗?
面试官想要听到的,是你是否有科学、系统的评测方法,能用客观的数据和标准来说明你的模型效果。比如:
- 你有没有设计一套评测集,专门包含甄嬛和其他角色的经典台词,来检测模型对于不同语境的还原能力?
- 你有没有请几位“甄学家”或者同学来做人工打分,让他们评价模型生成内容的“嬛味儿”?
- 你有没有和原始未微调的模型做对比,看微调前后在同一组输入下的输出差异?
- 你有没有用自动化指标来衡量模型生成内容和原始语料的相似度?
这是真正重要的技术检验方法,也是评测方法必须放在微调之前的原因。毕竟,如果原版模型就能在评测集上做到90%以上的相似度,再怎么微调,在人的感官上也是相差无几的。你需要有一个大模型目前掌握得不好的测评集,才有在指标上提高的空间。
当然,对于一个玩具项目来说,能做到有评测集、有一个以上的评价指标、有对比试验就已经很不错了。
04 调参很有用,但是……
调参很有用,但是绝对不是最高效的方法。
微调过程中有多少参数可调?简直数都数不清,对于小壶来说,调整learning rate、epoch、batch size就够喝一登了,不断地试错对于显卡资源充足的实验室来说是可以接受的,但对于在租卡平台上偷偷做自己的项目企图在导师没发现的情况下去实习的学生来说,多试错一轮可能就是几十元的支出。可以不尊重炼丹学,但必须尊重自己的钱包。

快把尝试通过调参提升模型指标写在简历上。
前面强调过:数据的质量和多样性对于微调有决定性作用,所以请在调参上适可而止(况且你很难把通过调参来提高指标写在简历上),而把更多的时间花在对于数据集的优化上。
调参很有用,但是数据更加重要。
对于微调一个“祖安Ccaoma”来说,DPO简直就是绝配,通过“prompt,脏话,文明用语”三个部分就能组成一条训练数据。你初版的数据集可能只覆盖了最常见的脏话和简单场景,但通过微调过后可能发现在测评集上的回复相似性从30%提高到了60%。这看起来很不错了,但是为何不把相似性较低的bad case导出来看一看?如果是某一类型的bad case特别多,那为何不多增加一些类似的训练数据?在对话的时候模型的回复总是特别长,那为何不减少一些chosen过于长的训练数据,甚至对微调代码做一点小小的创新,加上对于过长输出的惩罚?当你有根据bad case对数据进行精细化修改时,你就开始掌握了“case驱动”方法。
调参很有用,但是它解决的是“怎么把现有数据学得更好”,而数据优化解决的却是“模型到底要学什么”。别把所有的希望都寄托在参数上。与其在显卡前焦虑地等待下一组实验结果,不如多花一点时间,和你的数据、你的业务、你的评测集聊聊天。
END
这篇文章分享的,其实不是那些互联网上随处可见的技术细节教程,而是如何把一个微调项目真正“营销”出来的方法论——怎样选题、怎么打磨数据、如何科学评测、如何用项目讲故事。但如果你的工作量真的可以把项目包装得有亮点、有深度、有业务sense,那么你已经远远超越了只会复现开源项目的面试竞争者,成为一个优秀的算法小登了。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容

-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:

04 视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!

06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发


1105

被折叠的 条评论
为什么被折叠?



