- 博客(9)
- 收藏
- 关注
原创 VIT原理详解
论文地址:https://arxiv.org/pdf/2010.119291.如何把2D的图片转换成一个1D的序列模型框架 1.class token因为NLP中也用,为了和NLP保持一样,所以也用。 2.一般图像分类用GAP做全局平均池化,然后再做分类,两种方式通过论文作者实验都可以,作者只是为了和NLP中保持一致,但是需要调参才能获得一致的效果。 1.通过消融实验,1D位置编码和2D位置编码相差不多 2.作者认为切块比较小,较小的patch在图像中
2025-02-10 08:44:19
578
原创 Bert论文详解
BERT和GPT的区别,GPT是单向结构,使用左侧的单词预测下一个,BERT是双向结构,当前词由左侧和右侧两个单词预测得出。1.更深度的双向Transformer模型。3.用于一般语言理解任务。
2025-02-08 07:26:09
197
原创 图神经网络原理详解——GNN、GCN
为了获得属性之间的交互,可以在顶点更新时让其他的属性也参与进来,比如某一顶点更新时,不止使用本身和相邻顶点的向量参与计算,同时让和相邻顶点之间的边向量也参与计算。全局向量包含所有的顶点和边,所以我们在汇聚顶点/边的时候,其实也包括了汇聚全局向量,而全局向量自我更新的时候,也会把所有的边和顶点包含进去。无序对称性:顶点集合没有顺序,边集合没有顺序,对图的所有属性进行优化变换之后,即可以任意排序。则表示为有边(蓝色),否则表示为无边(白色),在图中,除边缘点外,每个顶点在。表示,在邻接矩阵中,如果两个顶点。
2025-02-05 23:53:26
1551
原创 复现微调GroundingDino,训练自己的数据集(详细记录,附源码)
复现并微调GroundingDINO模型,训练针对自定义数据集,本项目详细记录了从数据准备、环境配置、模型微调、训练过程到评估结果的所有步骤。
2025-01-16 21:54:59
2814
7
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人