前几天英伟达开源了DG-Net的源码。让我们来回顾一下这篇CVPR19 Oral的论文。
论文是英伟达(NVIDIA), 悉尼科技大学(UTS), 澳大利亚国立大学(ANU)的研究人员 在CVPR19上口头报告的文章《 Joint Discriminative and Generative Learning for Person Re-identification》。 深度学习模型训练时往往需要大量的标注数据,但收集和标注大量的数据往往比较困难。作者在行人重识别这个任务上探索了 利用生成数据来辅助训练的方法。通过生成高质量的行人图像,将其与行人重识别模型融合,同时提升行人生成的质量和行人重识别的精度。
论文链接:https://arxiv.org/abs/1904.07223
B 站视频: https://www.bilibili.com/video/av51439240/
腾讯视频: https://v.qq.com/x/page/t0867x53ady.html
代码地址:https://github.com/NVlabs/DG-Net
代码运行效果:(训练100000次迭代)
开发环境:
- Python 3.6
- GPU Memory >= 15G 如果使用fp32精度
- GPU Memory >= 10G 如果使用fp16精度,可以节省一部分显存