写在前面
我的2025届秋招之旅大概算是结束了,虽然目前还没决定去哪,但应该不打算面试了。最近打算总结一下面经,希望对广大粉丝们后续求职有一点帮助。
由于暑期实习是在鹅厂做LLM,因此我秋招面试的主要是NLP/LLM岗位,当然因为有一段快手推荐实习,所以也面了部分搜广推岗位。
先说一下个人情况:
- 学校情况:211本中9硕,本硕学校都一般,本硕都是计算机科班,但研究方向并不是NLP,而是图表示学习
- 论文情况:2A(NeurIPS+AAAI)+1B(ICDM)已录用,以及一篇数据挖掘A刊TOIS在投,四篇论文都是一作
- 实习情况:快手推荐算法日常实习 + 腾讯大模型暑期实习
- 奖学金情况:本科生国家奖学金、研究生国家奖学金,4次校级一等奖学金
- 其他:我的优快云还有公众号以及知乎之类的,这些平台都有一点粉丝量,至于其他诸如数学建模还有蓝桥杯获奖,以及优秀毕业论文和优秀毕业生之类的,对求职也没太大作用
这里先写一下滴滴提前批大模型岗位的面经,后续也会更新其他面经。由于我之前在别的平台已经发过了,所以优快云已经上有人搬运了部分面经,这很难评。。。
滴滴目前进度是等着谈薪,今年开奖普遍都较慢
一面/技术面 40min
- 面试官自我介绍
- 自我介绍
- 快手实习,详细问了XGBoost
- 损失函数
- 如何处理缺失值?
- bagging和boosting模型异同
- 如何处理样本不均衡的问题
- 腾讯实习
- 介绍LongLoRA
- 长文本有哪些技术
- norm有哪些作用
- 为什么不能用bn
- OOM你一般怎么解决
- 说说deepspeed
- 反问:业务场景
- Coding:岛屿数量
二面/技术面 1h
- 自我介绍
- 介绍实习
- 目前上线后有没有遇到什么问题,后续打算如何解决
- 遇到的最难的问题是什么,如何解决的
- 模型并行和数据并行
- 模型的哪些部分比较耗费显存
- 说说DeepSpeed
- 了解RLHF么
- SFT过程中哪些因素比较重要
- 完全微调在什么情况下会比LoRA微调好
- 大模型前向传播和反向传播会有哪些过程
- 哪些因素会影响显存使用
- 如果调大batch_size会对哪些部分有影响
- 在sft的过程中,哪些参数比较重要,有没有较好的经验值
三面/技术面 1h
- 自我介绍
- 介绍实习
- 负责了哪些部分
- 做长文本之前组内是怎么处理的
- 效果如何测评
- 数据集构建过程
- 从最开始调研到模型上线的全流程
- 有没有遇到比较难解决的问题,如何解决的
- 上线后使用有没有遇到什么bad case,如何解决的
- 开放性问题:用大模型做智能客服,从头到尾设计一下
- 假设有大量的历史交互数据,以及知识库,你会怎么去优化,从长文本和RAG两个角度说了一下
- 大量历史数据微调后效果很一般,该如何去优化
- 个人往后想做的方向有什么倾向,做落地(论文还可以,问我为什么不做研究)
- 日常通过什么途径和渠道来了解前言技术进展
- 反问
正常应该是3轮技术 + 1轮HR面,不过滴滴有个新锐计划,貌似就是SSP的意思,需要加一面。
四面/新锐加面/技术面 1h
- 自我介绍
- 介绍腾讯实习
- 长文本如何测评
- 了解哪些长文本技术
- 为啥没用腾讯内部的混元
- 应用场景
- 数据集构造
- 上线后出现了哪些bad case,如何解决的
- 你负责了哪些部分
- 哪些部分比较难
- 聊了聊华为910B
- 显卡利用率低和哪些因素有关
- 开放问题:摒弃你现在做的东西,设计一套RAG系统来做长文本的摘要理解,给了一定的思考时间
- 长文本能打败极致的RAG吗
- RAG在摘要理解方面的能力如何提升
- 详细介绍了NIPS论文
- 聊了聊实验室方向
- 聊了聊面试的其他岗位,滴滴排序在哪个位置
- 回去等通知
五面/HR面 30min
- HR自我介绍
- 自我介绍
- 对前边几轮面试以及面试官有没有什么看法,觉得怎么样
- 对滴滴的印象以及建议
- 硕士阶段是如何走到现在的,目标如何制定,如何去做
- 怎么想到走算法岗这条路的
- 觉得自己相比其他实习生,优势/劣势在哪里
- 问了转正的事
- 还面试了哪些公司
- 未来对工作有哪些要求
- 未来的工作更倾向于做什么方向
- 反问:预计八月底发offer意向,十月份谈薪
事实上9.13OC后目前都没谈薪,不过无所谓了,先等着