节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
放假前,一位球友跟我聊天,拿到了字节算法岗(大模型方向)的暑期实习机会。从研一开始准备,一边实习,一边投论文,研究生期间忙碌而充实。
学校情况:211本硕,计算机科班,但研究方向并不是NLP,而是图表示学习,算是转行
论文情况:2A1B均为一作,其中1A(NeurIPS)+1B(ICDM)已发表,另有1A刊在投中
实习情况:一段快手推荐算法日常实习
今天我来整理一下他的算法面经,分享给大家,希望对后续找工作的朋友有所帮助。
一面
- 自我介绍
- 详细说快手的用户推荐算法实习,主要做了些什么?
- 聊聊你本科做的负荷预测项目?
- 说一下 Transformer 的整体结构
- 了解有哪些位置编码方式吗?
- 说一下 LLaMA 中的旋转位置编码
- 为什么现在的大模型大多是decoder-only的架构?
- LLM中的因果语言建模与掩码语言建模有什么区别?
- 如何减轻LLM中的幻觉现象?
- 如何评估大语言模型(LLMs)的性能?
- 直接介绍 NeurIPS 论文,中间穿插着一些提问
- 你的 NeurIPS 论文能和推荐那边结合起来吗?
- NeurIPS 中论文中有没有考虑事件本身的一些属性,或者动态性什么的?
- 让我说说后续打算怎么做动态性的一些东西?
- 算法题:经典的求平方根,牛顿迭代法秒了
- 算法题:判断一个字符串能否由另一个字符串旋转而来,比如abcd旋转后可以变成dabc或者bcda等,写完后面试官要求O(1)
二面
- 自我介绍
- 详细介绍快手实习,中间穿插了十来个问题
- 介绍论文
- 简述GPT和BERT的区别
- 讲一下生成式语言模型的工作机理
- ChatGPT的零样本和少样本学习
- Transformer 的多头注意力机制
- 为什么Transformer的架构需要多头注意力机制?
- transformer中,同一个词可以有不同的注意力权重吗?
- 有哪些常见的优化LLMs输出的技术?
- 参数高效的微调(PEFT)有哪些方法
- 请简述下PPO算法流程,它跟TRPO的区别是什么?
- DeepSpeed 是否了解?对算子融合做了哪些优化?
- 算法题:BFS 求岛屿数量
- 算法题:回文子串的一个题,dp
- 反问环节







如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。
1622

被折叠的 条评论
为什么被折叠?



