Unlabeled Samples Generated by GAN Improve the Person Re-identification Baseline in vitro 论文阅读

这篇是Liang Zheng团队发表在CVPR2017上的关于利用生成对抗网络产生的无类标样本去提高行人重识别baseline的方法。论文链接:https://arxiv.org/abs/1701.07717

源码作者也开源了:https://github.com/layumi/Person-reID_GAN

基于三个motivation,首先是作者认为当时reID的数据集由于需要人工地进行bounding box的绘制和ID的标定,是一种比较高成本的数据采集,所以想到通过GAN来快速地生成更多的reID训练数据。第二个是论文当时的GAN的发展已相对成熟,但将GAN生成数据和图像子啊reID领域的应用暂时还没有。可见知乎https://www.zhihu.com/question/53001881?from=profile_question_card。第三个是针对GAN生成的数据进行分类的问题。因为GAN生成的都是无类标的样本,如何将他们利用到实际训练中来是一个比较有意义的问题,论文在后面会比较到几种方法。

针对

### 关于ReID行人重识别)的学术论文 #### 背景介绍 行人重识别Person Re-Identification, ReID)是计算机视觉领域的重要分支,主要解决在不同摄像头拍摄场景下对同一行人的身份匹配问题。这一技术广泛应用于智能监控、智慧城市等领域[^2]。 #### 推荐的学术论文 以下是几篇经典的ReID相关学术论文及其贡献: 1. **Human Semantic Parsing for Person Re-identification** - 这篇文章提出了基于语义解析的方法来增强行人特征表示的能力。通过引入人体部位分割信息,该方法能够有效应对光照变化、遮挡等问题,显著提升了ReID性能[^1]。 2. **Beyond Part Models: Person Retrieval with Refined Part Pooling (and A Strong Convolutional Baseline)** - 本文提出了一种改进的人体部件池化策略,通过对局部特征进行更精细的处理,进一步提高了模型的辨别能力。此外,文章还提供了一个强大的卷积基线模型作为对比实验基础[^3]。 3. **CamStyle: Enhancing Cross-Camera Pedestrian Representation by Camera-Specific Data Augmentation** - 针对跨摄像头之间存在的域偏移现象,本研究开发了名为 CamStyle 的相机特异性数据增广技术。它利用风格迁移原理缩小源目标域间的差距,从而改善了系统的泛化表现。 4. **Spindle Net: Learning Deep Feature Representations for Person Re-Identification With Body Parts Localization** - SpindleNet 是一种端到端框架,可以自动定位并提取身体各个部分的关键特征用于再辨识任务。这种方法不仅考虑到了整体外观特性,同时也注重细节描述,因此取得了较好的效果。 5. **Unlabeled Samples Generated by GAN Improve the Person Re-Identification Baseline in vitro** - 利用生成对抗网络(GAN),研究人员创造出大量未标注样本扩充训练集合规模。实验证明,在某些情况下这种做法确实有助于提升最终测试成绩。 #### 技术发展趋势 随着深度学习的发展,当前主流的ReID算法大多构建于复杂的神经网络架构之上,并结合多种先进技术如注意力机制、多模态融合等以克服实际应用场景中的各种困难因素。未来的研究方向可能包括但不限于以下几个方面: - 更高效的轻量化模型设计; - 自监督或半监督学习范式的探索; - 结合自然语言处理的大规模预训练模型的应用尝试; ```python import torch from torchvision import models # 加载ResNet50预训练模型作为基础骨架网路 model = models.resnet50(pretrained=True) # 替换最后一层全连接层适应具体分类数目需求 num_ftrs = model.fc.in_features model.fc = torch.nn.Linear(num_ftrs, num_classes) ``` 以上代码片段展示了如何修改标准CNN模型的最后一层以便适配新的类别数量定义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值