
计算机视觉
文章平均质量分 96
以实战为基础,基于深度学习网络,由浅入深探索计算机视觉的奥妙
Jial-(^V^)
这个作者很懒,什么都没留下…
展开
-
Transformer注意力机制
Transformer是一种用于自然语言处理(NLP)和其他序列到序列(Seq2Seq)任务的深度学习模型框架,它在2017年由Vaswani等人首次提出。以下是Transformer的一些重要组件和特点。自注意力机制:这是Transformer的核心概念之一,它使模型能够同时考虑输入序列中的所有位置,而不是像循环神经网络(RNN)或卷积神经网络(CNN)一样逐步处理。自注意力机制允许模型根据输入序列中的不同部分来赋予不同的注意权重,从而更好地捕捉语义关系。多头注意力。原创 2024-07-16 16:46:02 · 1815 阅读 · 0 评论 -
卷积神经网络(CNN)经典模型分析(一)
卷积神经网络(convolutional neural network, CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络是指那些至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络。原创 2023-02-19 14:57:18 · 1797 阅读 · 1 评论 -
LeNet5—论文及源码阅读
LeNet-5是一种经典的卷积神经网络结构,于1998年投入实际使用中。该网络最早应用于手写体字符识别应用中。普遍认为,卷积神经网络的出现开始于LeCun等提出的LeNet网络,可以说LeCun等是CNN的缔造者,而LeNet则是LeCun等创造的CNN经典之作。原创 2023-01-08 23:47:51 · 7862 阅读 · 0 评论