
经典深度学习网络
文章平均质量分 86
主要介绍了DL中各个经典的网络以及自己的一些思考。
weiming0
今天也是努力学习的一天!
展开
-
Alpha Zero——强化学习的集大成者
该论文是在alphaGO和alpha GO zero基础上提出,在不需要专家数据的前提下采用self-play的方式进行训练,在各类棋类游戏得到的强大性能!在国际象棋中,AlphaZero训练4小时就超越了世界冠军程序Stockfish;在日本将棋中,AlphaZero训练2小时就超越了世界冠军程序Elmo。在围棋中,AlphaZero训练30小时就超越了与李世石对战的AlphaGo。原创 2024-04-14 18:26:43 · 1290 阅读 · 0 评论 -
ViT——nlp和cv进行了统一,使多模态成为可能
紧接着在一系列 token 的前面加上加上一个新的 token(对应着 * 那个位置),此外还需要加上位置的信息,对应着 0~9(本文讨论了1d,2d和相对位置编码的输入,结论是无区别)。之前的transformer在cv中应用,大部分是将CNN模型中部分替换成transformer block(整体网络结构不变)或者用transformer将不同网络连接起来,而本文提出:一个针对图像patch的纯的transformer可以很好地完成图像分类任务,无需CNN的参与,这无疑打通了nlp和cv的壁垒。原创 2024-04-13 21:49:58 · 876 阅读 · 0 评论 -
SegFormer——无需位置编码,轻量级的transformer架构,并有很强的零样本鲁棒性
在本文中,**我们提出了一种简单、干净且功能强大的语义分割方法SegFormer,它包含一个位置编码无关的、分层的Transformer编码器和一个轻量级的AllMLP解码器。但是,position embedding的大小是固定的,因此,当测试的时候输入分辨率与训练的时候的分辨率不一致的话,positional code就需要被插值,导致精度的下降。我们的解码器设计**借鉴了Transformer的非局部注意力,并实现了更大的感受野,而不会变得复杂。因此,设计主干架构一直是语义分割中的一个活跃领域。原创 2024-04-13 21:59:16 · 2230 阅读 · 0 评论 -
SETR——Rethinking系列工作,展示使用纯transformer在语义分割任务上是可行的,但需要很强的训练技巧
自[ 36 ]的开创性工作以来,现有的语义分割模型主要是**基于全卷积网络( FCN )的模型。**一个标准的FCN分割模型具有编码器-解码器结构: 编码器用于特征表示学习,而解码器用于特征表示的像素级分类。[ 36 ]Jonathan Long, Evan Shelhamer, and Trevor Darrell. Fully convolutional networks for semantic segmentation. In CVPR, 2015. 1, 2, 3, 6FCN针对在非约束场景图像原创 2024-04-13 21:57:19 · 1005 阅读 · 0 评论 -
UNET——经典的CNN架构,上下文信息进行统一
利用contracting path(收缩路径)捕获上下文信息,symmetric expanding path(对称扩展路径)就获取精确的定位信息,(本质上是编码和解码过程)将两者结合,得到一个很好的效果。原创 2024-04-13 21:51:54 · 573 阅读 · 0 评论 -
Swin Transformer——披着CNN外皮的transformer,解决多尺度序列长问题
视觉实体变化大,在不同场景下视觉Transformer性能未必很好——多尺度问题图像分辨率高,像素点多,Transformer基于全局自注意力的计算导致计算量较大——tokens序列长度问题针对上述两个问题,我们提出了一种包含Shifted Window操作,具有层级设计的。:::warningShifted Window操作包括不重叠的local window,和重叠的cross-window connection。不重叠的local window将注意力计算限制在一个窗口中,原创 2024-04-13 21:46:15 · 1324 阅读 · 0 评论 -
MAE——自监督学习,何凯明大神作品
MAE(Masked Autoencoders)是用于CV的自监督学习方法(对照于NLP的BERT),优点是扩展性强的(scalable),方法简单。在MAE方法中会随机mask输入图片的部分patches,然后重构这些缺失的像素。原创 2024-04-13 21:43:20 · 1479 阅读 · 0 评论 -
GoogleNet
googlenet的深入分析原创 2022-10-04 11:18:30 · 254 阅读 · 0 评论 -
Alex网络
caffenet的简介原创 2022-10-04 11:13:13 · 352 阅读 · 0 评论