论文阅读: Interpretable and Generalizable Person Re-Identification with Query-Adaptive Convolution

ECCV2020文章提出可泛化行人重识别的“查询自适应卷积”和“时序提举”方法。“查询自适应卷积”关注中间特征图与class_memory匹配,提升模型对未知场景泛化能力。相比传统分类损失,该方法重点关注特征图像素级匹配,或可提升模型提取结构化特征能力。

ECCV2020的一篇文章, 关于可泛化行人重识别. 提出了"查询自适应卷积"和"时序提举". 其中"查询自适应卷积"方法比较新颖, 放弃了传统的对高层特征进行分类, 计算损失的方法; 转而关注中间的特征图对一个class_memory的匹配, 一次来提升模型对未知场景的泛化能力. “时序提举"不多介绍, 比较容易理解, 主要的思路是利用"同伴”, 来提升或者降低一个候选图片的置信度.
作者本人对论文的介绍

文章中的关键词

  • generalizable person re-id: 可泛化行人重识别
  • finding local corespondences: 查找局部联系
  • among different domains: 跨数据库, 跨场景
  • more generalizable than representation features to unseen scenarios, including unkown misalignment, pose of viewpoints changes: 对于未见场景, 不对齐, 姿态变化的泛化能力更强
  • 作者在论文介绍中讲的比较清楚, 使用了以下的关键理解:
    关于泛化性我们先从卷积讲起。卷积可以理解为一个模板匹配的过程,它的卷积核是模板,该模板既可以是预定义的,如传统的差分滤波用于边缘检测,也可以是学习得到的,如 CNN。卷积核通常是一个局部模板,卷积操作则是将该模板在全图滑动,得到的输出则是图像各处对该模板的匹配响应,大的响应则代表较好的局部匹配。因此,在深度卷积神经网络里,要学习的卷积核参数是很重要的,它决定了该网络要寻觅的是什么样的模式。然而,一旦在一个数据集上训练完成,CNN 的卷积核就是固定的,它只能代表对训练数据固化的记忆。如果应用场景跟训练场景不一样,CNN 学到的固定卷积核就有可能对没见过的图像模式(颜色、纹理等
### Causal Attention for Interpretable and Generalizable Graph Classification Paper Location 关于文章《Causal Attention for Interpretable and Generalizable Graph Classification》的具体位置,可以通过以下几种方式找到该论文的地址或下载链接: 1. **学术搜索引擎**:可以使用Google Scholar、Semantic Scholar等学术搜索引擎,输入标题“Causal Attention for Interpretable and Generalizable Graph Classification”进行检索。这些平台通常会提供PDF下载链接或官方出版物页面[^5]。 2. **会议或期刊官网**:如果该论文已被特定会议(如NeurIPS、ICLR、CVPR)或期刊(如TPAMI、JMLR)接收,可以直接访问相关会议或期刊的官方网站,并在搜索栏中输入标题进行查找[^6]。 3. **作者主页**:许多研究者会在其个人主页上分享自己的论文。通过查找论文作者的姓名,访问其学术主页,可能会发现论文的预印本或正式版本[^7]。 4. **arXiv**:作为开放获取的预印本平台,arXiv是许多机器学习和深度学习论文的首发地。可以在arXiv网站上搜索标题,查看是否有对应的预印本版本[^8]。 以下是代码示例,展示如何通过Python脚本自动化搜索Google Scholar上的论文信息: ```python from scholarly import scholarly def search_paper(title): search_query = scholarly.search_pubs(title) result = next(search_query, None) if result: return result.bib['url'] else: return "Paper not found" title = "Causal Attention for Interpretable and Generalizable Graph Classification" paper_url = search_paper(title) print(f"Paper URL: {paper_url}") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值