Look into Person: Self-supervised Structure-sensitive Learning and A New Benchmark for Human Parsing

本文介绍了Look into Person(LIP)数据集,这是一个针对人体解析的大规模复杂数据集,分析了现有方法的优缺点。同时,提出了自监督结构敏感学习方法,利用人体关节信息提升解析准确性。实验表明,该方法在遮挡、不同视角等挑战下表现出色。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

0.Abstract :

说明本篇文章的主要工作 : 一是提出了一个用于人体解析的大数据集 Look into Person (LIP), 这个数据集相比之前的数据集更大,覆盖情景更多,更复杂,作者还在这个数据集上详细分析了之前的各种人体解析方法的优劣 。二是提出了一种 self-supervised structure-sensitive approaches 去结合 high-level 的人体关节特征去改进人体解析方法,达到了 state-of-the-art.

1.Introduction :

介绍了目前人体解析任务以及现状。
提出了存在的问题 :

  1. 没有大规模数据集,并且当前数据集过于简单且没有评价机制来防止潜在的过拟合,导致目前的 CNN 不能达到一个好的效果。
  2. 缺乏 high-level 的监督去捕捉人体结构的信息,比如人体姿态 (身体的节点)。

写出了本文的贡献:
在这里插入图片描述

  1. 建立了一个大的用于人体解析的数据集,它有 50462 张带标记的图片,分为20类 ,19类人体部件标签,1类背景,其中有 30462 张图片作为训练集,10000 张图片作为验证集,还有 10000 张图片作为测试集,并且提供了专门的测试服务
  2. 在这个基准数据集上详细的分析了之前的人体解析的方法的成功与失败之处。
  3. 提出了一种 self-supervised structure-sensitive 架构去保证人体结构和人体解析结果的一致性,达到改进当前的深度学习方法的目的。

2.Related work

介绍了当前领域的情况,包括数据集情况和深度学习方法在

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值