
深度学习
文章平均质量分 95
千233
小白一枚
展开
-
【AI模型学习】上/下采样
基于Transformer架构的图像分割模型(如SegFormer、Swin-Unet)中,上采样和下采样结构是标准配置。下采样主要用于提取高层语义特征和减少计算成本,通过降低分辨率和聚焦于更宽范围的上下文信息。原创 2025-05-22 17:10:44 · 852 阅读 · 0 评论 -
【AI模型学习】Gumbel-Softmax —— “软硬皆吃”的函数
Gumbel-Softmax 是一种可微分的替代方案,用于在神经网络中对离散类别变量进行建模与采样。其核心优势在于能够在反向传播中保留梯度信息的同时,实现对离散变量的“近似采样”。原创 2025-05-22 12:39:39 · 1085 阅读 · 0 评论 -
【AI模型学习】ESM2
ESM-2是一个基于Transformer架构的蛋白质语言模型,提供多个版本选择,包括从8M到15B参数的不同规模模型,适用于不同计算需求的任务。原创 2025-05-21 16:38:57 · 1553 阅读 · 0 评论 -
【AI模型学习】GPT——从v1到v3
与GPT-2使用的WebText数据集不同,GPT-3的训练数据集规模更大,包含了各种公开的互联网文本资源,如书籍、文章、网站等。Zero-shot学习的能力使得GPT-2在处理不同任务时不需要大量的标注数据,它依靠之前的无监督预训练,已经学到了丰富的语言模式。例如,给定一段简单的描述:“根据下面的文本判断它是积极的还是消极的”,GPT-3可以直接根据文本生成情感分析的结果,完全不需要微调。上的能力也得到了极大的提升。这两个组件使用 mask 的方式有非常重要的差异,直接影响了模型的能力和任务的适用性。原创 2025-04-27 11:38:31 · 938 阅读 · 0 评论 -
【AI模型学习】双流网络——更强大的网络设计
Two-Stream Convolutional Networks for Action Recognition in Videos作者:Karen Simonyan & Andrew Zisserman(牛津 VGG)原创 2025-04-24 12:28:35 · 967 阅读 · 0 评论 -
【AI模型学习】CLIP——迁移模型的新高度
详解CLIP模型,包学会原创 2025-04-23 12:57:19 · 650 阅读 · 0 评论 -
【AI模型学习】Swin Transformer——优雅的模型
最优雅的模型之一原创 2025-04-22 20:16:52 · 687 阅读 · 0 评论 -
【AI模型学习】关于写论文——论文的审美
补丁法在现有研究系统或方法中,找到其薄弱点、局限性或不合理的地方,并提出一个“补丁式”的改进。原创 2025-04-18 23:18:14 · 962 阅读 · 3 评论 -
【AI模型学习】Moco(下)——巧妙的队列设计
详解Moco的流程原创 2025-04-16 18:54:56 · 755 阅读 · 1 评论 -
【AI模型学习】Moco(上)——自监督学习和对比学习
Moco!!原创 2025-04-16 18:45:05 · 762 阅读 · 0 评论 -
【AI模型学习】MAE——CV界的无监督预训练
Autoencoders(MAE),其核心思想是通过对图像进行高比例遮挡,仅保留部分可见 patch,并训练模型从中重建原始图像。整体架构采用不对称设计:编码器(encoder)仅处理未被遮挡的 patch,聚焦学习图像的全局语义特征;解码器(decoder)接收全部 patch 位置(包括 mask token),以较小规模重建图像像素。原创 2025-04-15 12:39:39 · 1348 阅读 · 10 评论 -
【AI模型学习】ViT——开启CV界的Tranformer时代
关于ViT原创 2025-04-14 21:30:18 · 834 阅读 · 0 评论 -
【模型学习之路】NTN块,SimGNN
学习一下SimGNN,同时也重点学习一下NTN模块以及Pairwise Node Comparison等常用的操作。原创 2024-11-27 22:50:40 · 935 阅读 · 0 评论 -
【模型学习之路】TopK池化,全局池化
来学学图卷积中的池化操作。原创 2024-11-26 21:34:24 · 1416 阅读 · 0 评论 -
【模型学习之路】PyG的使用+基于点的任务
PyG的基本使用原创 2024-11-26 15:24:18 · 1193 阅读 · 0 评论 -
【模型学习之路】手写+分析GAT
GAT!图注意力卷积网络。原创 2024-11-06 14:04:29 · 1583 阅读 · 1 评论 -
【模型学习之路】手写+分析BERT
Attention is all you need!原创 2024-10-30 21:29:21 · 962 阅读 · 0 评论 -
【模型学习之路】手写+分析Transformer
attention is all you need!原创 2024-10-29 20:13:09 · 1809 阅读 · 0 评论