✨✨ 欢迎大家来访Srlua的博文(づ ̄3 ̄)づ╭❤~✨✨🌟🌟 欢迎各位亲爱的读者,感谢你们抽出宝贵的时间来阅读我的文章。
我是Srlua小谢,在这里我会分享我的知识和经验。🎥
希望在这里,我们能一起探索IT世界的奥妙,提升我们的技能。🔮
记得先点赞👍后阅读哦~ 👏👏
📘📚 所属专栏:传知代码论文复现
欢迎访问我的主页:Srlua小谢 获取更多信息和资源。✨✨🌙🌙
目录
本文所有资源均可在该地址处获取。
图片分类任务方法概述
卷积神经网络(CNN)
发展背景: CNN的出现标志着深度学习在图像识别领域的重大突破。最早的CNN模型可以追溯到1998年的LeNet,而2012年的AlexNet模型在ImageNet竞赛中取得优异成绩,使得CNN成为图像分类任务的主流方法。
分类方法优点:
局部感知野: 通过卷积操作,CNN能够捕捉图像的局部特征,减少参数数量。
参数共享: 卷积核在整张图像上共享,提高了模型的泛化能力。
平移不变性: CNN具有平移不变性,能够识别图像中的物体,即使它们的位置发生变化。
视觉Transformer(ViT)
发展背景: ViT于2020年被提出,借鉴了自然语言处理领域的Transformer架构,将自注意力机制应用于图像分类任务。
分类方法优点:
自注意力机制: 能够捕捉图像中的长距离依赖关系,提高分类准确性。
可扩展性: Transformer结构易于扩展,适用于大规模数据集。
并行计算: 自注意力机制使得ViT能够更好地利用并行计算资源。
视觉图神经网络(ViG)
发展背景: ViG的提出是为了解决CNN和ViT在处理不规则和复杂目标时的局限性。ViG将图像视为图结构,通过图卷积操作进行特征提取和分类。
分类方法优点:
灵活的图结构: ViG采用图结构表示图像,能够更好地处理不规则形状的物体,提高对复杂场景的识别能力。
图卷积操作: 通过图卷积,ViG能够有效地聚合和更新节点信息,捕捉局部和全局特征。
节点特征变换: FFN模块(多层感知器)用于节点特征变换,增强了模型的表达能力



最低0.47元/天 解锁文章
1162

被折叠的 条评论
为什么被折叠?



