拼多多大模型算法工程师面试,面试官很nice
围绕项目进行深度交流
- 项目的背景是什么,主要解决了什么问题?
- 训练数据集是如何构造的,都有什么类型的数据,总量有多大?
- 有没有进行微调?
- 解释一下 Prompt Tuning、Adapter Tuning、LoRA 等微调方法的原理,分别适用于哪些场景?
- 如何评估模型微调效果的好坏呢?
- 微调用了多大的显卡,有关注内存占用情况吗?
- 模型底层为什么选择了70b的版本呢,选择的依据是什么?
- 是否了解常用的模型加速技巧?(了解量化和蒸馏但没实操过没有深入聊)
- 微调如何避免出现灾难性遗忘和“复读机”问题?
- 微调和训练一个全新模型相比,有哪些优势?
- 你认为大模型微调还面临哪些挑战?
之后聊了一下最近刚接手的 prompt 精调与词表扩充工作,这部分聊的比较发散,主要考察你对业务的理解
统计岛屿数量
给你一个由 ‘1’(陆地)和 ‘0’(水)组成的的二维网格,请计算网格中岛屿的数量。
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很