【AI面试】CNN 和 Transformer 的问题汇总

本文深入探讨了卷积神经网络(CNN)和Transformer的特点。CNN以其局部感知和权值共享为特征,适用于图像处理,而Transformer通过自注意力机制捕捉全局依赖关系,适合处理序列数据。两者各有优缺点,如CNN在处理固定大小输入时表现出色,而Transformer在全局建模上占优。理解这些特性有助于在实际任务中选择合适的模型。


CNN卷积神经网络transformer注意力机制相关的知识,是AI领域的一个基础知识点。一般面试官会从这里考场我们对基础知识点的理解程度,和对最新知识的学习跟进程度。以下这些问题入手:

  1. 卷积神经网络,有什么特点?
  2. 1*1卷积核有什么作用?
  3. 计算经过卷积的输出尺寸大小
  4. 空洞卷积你了解吗?有什么特点
  5. CNN和transformer两者相比,有什么优缺点?
  6. transformer的query、key、value是如何工作的?怎么产生注意力机制的
  7. attention有哪些类型和变种

后面,我们就带着这些问题,一一找到答案。

一、CNN

首先是听到卷积神经网络,立马就会顾名思义,卷积+神经网络

0

1.1、卷积

卷积我们知道,在信息论里面都会提到这个名词,在这里就根据要描述的内容,要处理的是输入图像,卷积是对图像和卷积模板做内积。

在这里,单纯的对一个像素做卷积就没什么意义了。所以,这里不是对每个输入像

内容概要:本文档《Transformer面试题总结97道.pdf》涵盖了Transformer模型的核心概念、机制、训练技巧及其应用。主要内容包括Transformer的数学假设、自注意力机制、Queries/Keys/Values矩阵的作用、Feed Forward层的训练、复杂度分析、Positional Encoding、Layer Normalization、信息表示能力、EncoderDecoder的依存关系、Tokenization、复杂度降低方法、CLS标记的有效性、跨语言Tokenization、类别不平衡问题的处理、多嵌入策略、参数量减少方法、Transformer的深度问题、Batch大小与困惑度的关系、神经网络的信息表示能力、注意力机制的优势、Bias减少方法、Masking机制、Attention Score的物理机制、Bias减少方法、Transformer的泛化能力、Scaling操作的必要性、Positional Encoding的作用、Attention机制的实现方式、非线性操作、Teacher forcing的应用、Decoder的输入信息、Transformer的局限性、Label Smoothing、Beam Search算法、Knowledge Graph编码、对话系统的实现、IntentEntity的预测、NER任务、手动实现Transformer与BERT的效果对比、Transformer相较于传统网络的优势、增量训练、Toxic语言探测、Word Analogy功能、Bad Label的发现、Bayesian模型的实现、Transfer Learning、MLEMAP的应用、Naive Bayes的应用及问题等。 适合人群:具备一定机器学习深度学习基础,对Transformer模型有深入理解需求的研究人员、工程师及从业者。 使用场景及目标:①深入了解Transformer模型的内部机制训练技巧;②掌握解决Transformer模型训练应用中常见问题的方法;③探索Transformer在不同任务中的应用潜力,如NLP、CV等领域;④理解Transformer与其他模型(如RNN、LSTM、CNN)的比较优势。 阅读建议:此文档内容详尽,适合系统学习查阅。建议读者在阅读时结合实际项目经验,重点关注与自己研究或工作相关的部分,并尝试动手实践文档中提到的各种技术方法,以加深理解掌握。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

钱多多先森

你的鼓励,是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值