learning and transferring mid-level image representations using convolutional neural networks

该研究通过AlexNet在ImageNet训练集上预训练,然后进行参数迁移,保留前层参数,只训练新加入的适应层,以适应Pascal VOC2007等复杂数据集。使用滑动窗口策略选取正负样本,进行目标任务的微调。在测试阶段,生成heatmap实现分类与定位功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

cvpr14--Learning and transferring mid-level image representations using convolutional neural networks

Authors:Maxime Oquab1,Ivan Laptev,Leon Bottou, Josef Sivic.

论文理解 

1.贡献

文章是从transfer learning的角度来看看待特征学习,并不是像之前的方法比如R-CNN那样把最后的softmax输出节点个数改成相应数据集class的个数,然后调低学习率再做fine-funing(这种方法一般更恰当的叫法可能叫fine-tuning),这篇文章采用的是把softmax摘掉,重新加入一个fully connection layer--FCa和相应的softmax--FCb,在训练的时候保持前面的参数不变,只是学习FCa和FCb的参数;另比较有意思的是训练集的再加工,用到了尺寸信息,以及后面把heatmap的信息融合起来便于loacalization。文章claim出的分类效果比pascal 2007和pasc
内容概要:本文档为《400_IB Specification Vol 2-Release-2.0-Final-2025-07-31.pdf》,主要描述了InfiniBand架构2.0版本的物理层规范。文档详细规定了链路初始化、配置与训练流程,包括但不限于传输序列(TS1、TS2、TS3)、链路去偏斜、波特率、前向纠错(FEC)支持、链路速度协商及扩展速度选项等。此外,还介绍了链路状态机的不同状态(如禁用、轮询、配置等),以及各状态下应遵循的规则和命令。针对不同数据速率(从SDR到XDR)的链路格式化规则也有详细说明,确保数据包格式和控制符号在多条物理通道上的一致性和正确性。文档还涵盖了链路性能监控和错误检测机制。 适用人群:适用于从事网络硬件设计、开发及维护的技术人员,尤其是那些需要深入了解InfiniBand物理层细节的专业人士。 使用场景及目标:① 设计和实现支持多种数据速率和编码方式的InfiniBand设备;② 开发链路初始化和训练算法,确保链路两端设备能够正确配置并优化通信质量;③ 实现链路性能监控和错误检测,提高系统的可靠性和稳定性。 其他说明:本文档属于InfiniBand贸易协会所有,为专有信息,仅供内部参考和技术交流使用。文档内容详尽,对于理解和实施InfiniBand接口具有重要指导意义。读者应结合相关背景资料进行学习,以确保正确理解和应用规范中的各项技术要求。
### 关于 ImageNet 数据集的相关学术论文 ImageNet 是计算机视觉领域最著名的数据集之一,广泛应用于各种研究工作。以下是几篇重要的与 ImageNet 相关的学术论文: #### 1. 原始 ImageNet 论文 一篇开创性的论文介绍了 ImageNet 的构建及其在大规模图像识别中的应用[^4]。 ```plaintext @inproceedings{deng2009imagenet, title={Imagenet: A large-scale hierarchical image database}, author={Deng, Jia and Dong, Wei and Socher, Richard and Li, Li-Jia and Li, Kai and Fei-Fei, Li}, booktitle={2009 IEEE conference on computer vision and pattern recognition}, pages={248--255}, year={2009}, organization={Ieee} } ``` 这篇论文描述了如何创建一个大型层次化的图像数据库,并讨论了其在物体识别方面的潜力。 #### 2. 使用 ImageNet 进行深度学习模型训练的研究 另一项重要研究表明,在 ImageNet 上预训练的卷积神经网络可以显著提高其他任务上的性能[^5]。 ```plaintext @article{oquab2014learning, title={Learning and transferring mid-level image representations using convolutional neural networks}, author={Oquab, Maxime and Bottou, L{\'e}on and Laptev, Ivan and Sivic, Josef}, journal={Proceedings of the IEEE conference on computer vision and pattern recognition}, pages={1717--1724}, year={2014} } ``` 此研究展示了通过迁移学习方法利用 ImageNet 预训练模型的有效性。 #### 3. 对 ImageNet 挑战赛获胜算法的分析 每年举办的 ILSVRC(ImageNet 大规模视觉识别挑战赛)吸引了众多顶尖团队参与。有文章总结了历届比赛的关键技术和趋势变化[^6]。 ```plaintext @misc{kornblith2019better, title={Do Better ImageNet Models Transfer Better?}, author={Simon Kornblith and Jonathon Shlens and Quoc V. Le}, year={2019}, eprint={1805.08974}, archivePrefix={arXiv}, primaryClass={cs.CV} } ``` 这些文献不仅涵盖了 ImageNet 自身的发展历程,还反映了它对整个计算机视觉社区的影响和发展方向。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值