
深度学习入门
文章平均质量分 75
小杜今天学AI了吗
努力日更的小蜜蜂博主,喜欢健身,喜欢学习
展开
-
2023-2024步态识别论文研读系列03(ICCV2023)GPGait: Generalized Pose-based Gait Recognition(一)
首先,提出了一种面向人类的变换(HOT)和一系列面向人类的描述符(HOD),以获得具有判别性多特征的统一姿态表示。在四个公开的步态识别数据集(CASIA-B、OUMVLP-Pose、Gait3D 和 GREW)上进行的实验表明,与现有的基于骨骼的方法相比,我们的模型展示了更好且更稳定的跨域能力,实现了与基于轮廓的方法相当的识别结果。通过如图1所示的初步研究,我们发现当测试来自未见过的环境中的步态序列时,这些方法的性能往往会急剧下降,限制了其在现实场景中的应用。然而,基于姿态的方法在不同数据集上的。原创 2024-12-20 22:41:11 · 845 阅读 · 0 评论 -
2023-2024步态识别论文研读系列01(cvpr2023)Dynamic Aggregated Network for Gait Recognition
步态识别在视频监控、犯罪现场侦查、社会安全等领域有着广泛的应用前景。然而,在实际场景中,步态识别往往受到多种外部因素的影响,如携带条件、穿着外套、视角多样等。近年来,各种基于深度学习的步态识别方法取得了可喜的成果,但它们倾向于使用固定权重的卷积网络提取显著特征之一,没有很好地考虑关键区域中步态特征之间的关系,忽略了完整运动模式的聚合。在本文中,我们提出了一个新的观点,即实际的步态特征包括多个关键区域的全局运动模式,每个全局运动模式由一系列局部运动模式组成。为此,我们提出了动态聚合网络( DANet )来学习原创 2024-12-09 17:11:02 · 1231 阅读 · 0 评论 -
论文分享CausalVAE: Disentangled Representation Learning via Neural Structural Causal Models
【AI Drive】CVPR 2021 | CausalVAE:引入因果结构的解耦表征学习_哔哩哔哩_bilibili目标1 学习到的表征 是具有唯一性的 ,是可以被识别的根据真实情况设置,代表真实的物理情况,引入结构因果模型,为了表征可识别 引入监督信号2 在因果表征中实现 do operation什么是 do operation 对隐表征能进行干预的时候,因果效应可以传递到子节点通过干预可以让模型生成一些反事实的图片3 在现实场景中 因果图 不一定是直接given的 让 模型自动原创 2024-06-14 10:03:07 · 1709 阅读 · 0 评论 -
论文 学习 Transformer : Attention Is All You Need
transformer 是一个encoder ——decoder 结构的用于处理序列到序列转换任务的框架,是第一个完全依赖自注意力机制,计算其输入输出表示的转换模型,核心是采用了注意力机制用于捕获输入序列不同位置之间的依赖关系,帮助模型在生成输出时能够关注到与当前任务最相关的信息,优势是能够捕获长距离依赖关系,并且对于输入序列的长度没有固定的限制,在处理长文本和复杂语言结构时表现出色,在编码器解码器框架。原创 2024-05-11 22:27:59 · 1028 阅读 · 0 评论 -
论文研读 An Image Is Worth 16x16 Words: Transformers For Image Recognition At Scale
Vision Transformer(ViT)是一种将Transformer架构直接应用于图像分类任务的模型。它源于自然语言处理(NLP)领域中的Transformer模型,该模型以其自注意力机制而闻名,能够捕捉序列中的长距离依赖关系原创 2024-05-11 21:02:05 · 498 阅读 · 0 评论 -
论文分享[cvpr2018]Non-local Neural Networks非局部神经网络
将非局部操作作为通用构建块家族,用于捕获长距离依赖关系。受计算机视觉中经典的非局部均值方法的启发,我们的非局部操作将位置响应的计算为所有位置的特征的加权和。这个构建块可以插入到许多计算机视觉架构中。在视频分类任务中,即使没有任何花里胡哨(without any bells and whistles),我们的非局部模型也可以在 Kinetics 和 Charades 数据集上竞争或优于当前的竞赛获胜者。原创 2024-05-08 21:41:08 · 1314 阅读 · 0 评论 -
深度学习论文代码研读系列(1)Transformer:Attention Is All You Need
主要的序列转导模型基于复杂的循环或卷积神经网络,其中包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单的网络架构 Transformer,它完全基于注意力机制,完全摒弃了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更优越,同时更可并行化,并且需要的训练时间显着减少。我们的模型在 WMT 2014 英德翻译任务上达到了 28.4 BLEU,比现有的最佳结果(包括集成)提高了 2 BLEU 以上。原创 2024-05-06 09:47:30 · 701 阅读 · 0 评论 -
论文研读 ——用于医学图像分类的双引导的扩散网络
在训练阶段,我们将扩散过程应用于ground truth y0和不同的先验,生成三个噪声变量yg t, yl t和yt (yg t的全局先验,yl t的局部先验和yt的双先验)。我们评估了我们的DiffMIC在三个具有不同图像模式的医学分类任务上的有效性,包括超声图像的胎盘成熟度分级、皮肤镜图像的皮肤病变分类和眼底图像的糖尿病视网膜病变分级。基于扩散概率模型在生成图像建模中的成就,我们提出了一种新的基于扩散去噪的模型DiffMIC,用于准确分类不同的医学图像模式。图1显示了我们的医学图像分类网络的示意图。原创 2024-05-03 23:37:05 · 948 阅读 · 0 评论 -
python 今日小知识3—— vars() 函数
总结来说,vars() 函数用于获取对象的属性和属性值,并以字典的形式返回。它在调试、动态查看对象的属性和值以及进行反射等场景下很有用。对于内置类的实例对象(如列表、字符串等),vars() 函数返回的字典通常只包含内置属性和方法,并不包含实例化时添加的自定义属性。当在全局作用域内调用 vars() 函数时,它返回当前全局作用域中的变量和值的字典。对于自定义类的实例对象,vars() 函数返回的字典将包含实例的属性和属性值。当在函数内部调用 vars() 函数时,它返回当前函数的局部变量和值的字典。原创 2024-04-14 09:22:20 · 523 阅读 · 0 评论 -
基于经典网络架构训练图像分类模型(2)测试部分
基于经典网络架构训练图像分类模型(2)训练部分。原创 2024-04-09 18:48:27 · 292 阅读 · 0 评论 -
图像识别网络与训练策略——基于经典网络架构训练图像分类模型
图像识别网络与训练策略——基于经典网络架构训练图像分类模型转载 2024-04-08 11:39:47 · 412 阅读 · 0 评论 -
卷积神经网络实战
注意卷积最后结果还是一个特征图,需要把图转换成向量才能做分类或者回归任务。- 一般卷积层,relu层,池化层可以写成一个套餐。- 分别构建训练集和测试集(验证集)- DataLoader来迭代取数据。原创 2024-04-06 21:10:22 · 377 阅读 · 0 评论 -
神经网络算法解读
介绍了神经网络算法相关概念原创 2024-04-05 11:37:49 · 830 阅读 · 0 评论