CNN具备Transformer所不具备的两个归纳偏置

本文探讨了卷积神经网络(CNN)的局部性和平移等变性,强调其在图像处理中如何利用这些特性高效学习。相比之下,Transformer的自注意力层提供全局上下文,但不具备相同的空间不变性。理解这些差异对于选择合适模型解决计算机视觉问题至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CNN具备的先验信息使得其可以使用更少的数据得到更好的模型:

1、局部性 Locality :
假设图片上相邻的区域会有相邻的特征,靠的越近的东西相关性越强。

2、平移等变性 Translation equivariance:
平移同变性 即f(g(x))=g(f(x)),f为卷积,g为平移
无论先做卷积还是平移,卷积核相当于模板,不论图片中同样的物体移到哪里,只要是同样的输入进来,遇到同样的卷积核,其输出永远是一样的

相比于Transformer的自注意力层self-attention layer 是全局性的。

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值