CNN卷积神经网络和
transformer注意力机制相关的知识,是AI领域的一个基础知识点。一般面试官会从这里考场我们对基础知识点的理解程度,和对最新知识的学习跟进程度。以下这些问题入手:
- 卷积神经网络,有什么特点?
1*1卷积核有什么作用?- 计算经过卷积的输出尺寸大小
- 空洞卷积你了解吗?有什么特点
CNN和transformer两者相比,有什么优缺点?- transformer的query、key、value是如何工作的?怎么产生注意力机制的
- attention有哪些类型和变种
后面,我们就带着这些问题,一一找到答案。
一、CNN
首先是听到卷积神经网络,立马就会顾名思义,卷积+神经网络。

1.1、卷积
卷积我们知道,在信息论里面都会提到这个名词,在这里就根据要描述的内容,要处理的是输入图像,卷积是对图像和卷积模板做内积。
在这里,单纯的对一个像素做卷积就没什么意义了。所以,这里不是对每个输入像
本文深入探讨了卷积神经网络(CNN)和Transformer的特点。CNN以其局部感知和权值共享为特征,适用于图像处理,而Transformer通过自注意力机制捕捉全局依赖关系,适合处理序列数据。两者各有优缺点,如CNN在处理固定大小输入时表现出色,而Transformer在全局建模上占优。理解这些特性有助于在实际任务中选择合适的模型。
订阅专栏 解锁全文
1960

被折叠的 条评论
为什么被折叠?



