论文笔记《IS object localization for free? Weakly-supervised learning with convolutional neural network》

本文研究了基于CNN的弱监督学习在对象定位中的效果。通过修改Alexnet,将全连接层替换为卷积层,并利用多尺度训练,提升了小目标定位的准确性。实验表明,网络结构能较好地定位目标位置,而上下文信息对定位至关重要。尽管定义的定位标准非通用,但丰富的实验验证了方法的有效性。

motivation

作者指出对于检测来说,一般需要更多的标注信息,检测的效果才会好,但是标注信息需要浪费人工去标注,代价大,同时,也会加入标注者的主观信息,更重要的是标注信息并不是对所有的图片中的物体都有很好的检测效果,对于遮挡和裁剪的目标对象,标注信息就会非常困难。作者探究能否用image label训练。

Network architecture

这里写图片描述
网络结构是在Alexnet的基础上,将第六、七层的全连接层改为卷积层,再加上两层自适应卷积层,最后一个自适应卷积层后面添加max-pooling层,输出响应最大的点。因为整个网络只有卷积层,所以对输入图像的大小没有限制,前五个卷积层是在Imagenet上进行训练的,后面的几层是在Pascal数据集上进行训练的,所以虽然层数很多,但总体的训练时间没有很长。
这里写图片描述
该模型是对图片进行了scale之后训练的模型,该模型是对固定网络的不同输入,目的是:针对图片中很小的目标,将其进行放大。
本文作者做的比较好的一点是实验比较充分,对于提出的每一个trick都进行了实验

<think>嗯,用户这次的需求很明确,是要找一篇特定论文的代码集。论文标题是《A Novel Action Saliency and Context-Aware Network for Weakly-Supervised Temporal Action Localization》。从用户提供的引用内容来看,似乎和当前需求关联不大,可能是系统自动提供的无关引用。 用户应该是个计算机视觉或视频分析领域的研究者,正在复现弱监督时间动作定位的算法。这类请求很常见,研究者找到感兴趣论文后第一反应就是找实现代码。不过这篇论文的标题比较新,估计是近期发表的。 先回忆下论文信息:弱监督时间动作定位(WTAL)任务,只用视频级标签训练模型定位动作发生时段。论文提出的ASCA-Net结合了显著性图和上下文感知机制,2023年左右发表的。这类前沿论文的代码通常开源在GitHub或作者主页。 搜索策略要分几步走:首选GitHub,用论文全称和缩写组合搜索;其次查作者团队的主页;再看论文里是否声明代码链接;最后用学术代码搜索引擎兜底。用户可能需要具体操作指导,所以要把每种渠道的搜索方法写清楚,比如GitHub搜索语法。 注意到用户提到“参考站内引用”,但给的引用[1]是情感计算学者列表,引用[2]是另一篇论文的作者,确实和当前需求无关。这说明用户可能误操作了,或者是系统自动插入的。应该忽略这些无关引用,专注解决代码查找问题。 用户情绪可能有点着急,毕竟找不到代码会耽误研究进度。回复时要给出可立即操作的解决方案,同时降低预期——不是所有论文都开源代码。可以准备备选方案:建议用户邮件联系作者,或推荐其他同类开源模型(如SF-Net、BaSNet),这样即使找不到原代码也有替代方案。 最后考虑要不要补充论文背景知识,但从用户能准确说出论文全名来看,应该已经读过原文了,重点还是帮ta找代码。额外提醒下补充材料里的资源就够了。 </think>根据论文标题《A Novel Action Saliency and Context-Aware Network for Weakly-Supervised Temporal Action Localization》,以下是系统性的代码查找方案: ### 代码获取途径 --- #### 1. **官方开源平台(首选)** - **GitHub 搜索** 在 GitHub 直接搜索论文标题或缩写 `ASCA-Net`: ```bash site:github.com "Action Saliency and Context-Aware Network" OR "ASCA-Net" ``` - **作者主页** 通过论文作者(通常为一作或通信作者)的个人主页、实验室页面查找代码链接。例如: - 在 Google Scholar 检索作者姓名 + "homepage" - 查看作者所属机构的资源页面(如大学实验室的 `Publications` 版块) #### 2. **论文附属信息** - **检查论文正文**:通常在 `Implementation Details` 或 `Experiments` 章节末尾声明代码地址 - **arXiv 版本**:若论文发布于 [arXiv](https://arxiv.org),查看 PDF 摘要页右下角的 `Code` 按钮 - **会议/期刊主页**:如发表在 CVPR/ICCV/ECCV,访问会议官网的论文页面补充材料 #### 3. **学术代码聚合平台** - **Papers With Code** 访问 [https://paperswithcode.com](https://paperswithcode.com) 搜索论文标题,查看是否收录: ``` "Weakly-Supervised Temporal Action Localization" site:paperswithcode.com ``` - **Model Zoo** 在开源框架的模型库中检索(如 PyTorch Hub, MMAction2): ```python # PyTorch Hub 示例 import torch model = torch.hub.load('repo_owner/repo_name', 'ascanet') ``` #### 4. **替代方案** - **邮件联系作者** 从论文 PDF 获取通讯邮箱,模板参考: > Subject: Code Request - ASCA-Net (Your Paper Title) > Dear Prof. [Last Name], > Could you share the implementation of ASCA-Net for research replication? - **注意**:学术邮箱成功率 > 企业邮箱(如 `@gmail.com`) - **复现建议** 若代码未公开,可基于开源 WTAL 项目二次开发: - [SF-Net (CVPR 2020)](https://github.com/Flowerfan/SF-Net) - [BaSNet (AAAI 2020)](https://github.com/Pilhyeon/BaSNet-pytorch) ### 补充资源 - **相关数据集**:代码运行通常需 THUMOS14/ActivityNet - **依赖库**:准备 PyTorch + OpenCV + PyAV 环境 - **论文解读**:[Weakly-Supervised Action Localization综述](https://arxiv.org/abs/2205.15675) [^1] ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值