每日学术速递8.10

1.Dataset Size Recovery from LoRA Weights 

图片

标题:从 LoRA 权重恢复数据集大小 

作者:Mohammad Salama, Jonathan Kahana, Eliahu Horwitz, Yedid Hoshen

文章链接:https://arxiv.org/abs/2406.19395

项目代码:https://vision.huji.ac.il/dsire/

图片

图片

图片

图片

图片

摘要:

        模型反转和成员推断攻击旨在重建和验证模型训练所依据的数据。但是,他们不能保证找到所有训练样本,因为他们不知道训练集的大小。在本文中,我们引入了一项新任务:数据集大小恢复,旨在直接根据模型的权重确定用于训练模型的样本数量。然后,我们提出了 DSiRe,这是一种用于恢复用于微调模型的图像数量的方法,在微调使用 LoRA 的常见情况下。我们发现 LoRA 矩阵的范数和频谱都与微调数据集大小密切相关;我们利用这一发现提出了一种简单而有效的预测算法。为了评估 LoRA 权重的数据集大小恢复,我们开发并发布了一个新的基准 LoRA-WiSE,其中包含来自 2000 多个不同 LoRA 微调模型的 25000 多个权重快照。我们最好的分类器可以预测微调图像的数量,平均绝对误差为 0.36 张图像,从而确定这种攻击的可行性。

这篇论文试图解决什么问题?

这篇论文提出了一个新的问题,即“数据集大小恢复”(Dataset Size Recovery),旨在确定用于训练模型的样本数量,直接从模型的权重中进行推断。具体来说,作者关注于在使用低秩适应(LoRA)进行微调(fine-tuning)的模型中恢复用于微调的数据集大小。这个问题的提出基于以下背景和动机:

  1. 模型反演和成员资格推断攻击:这些攻击旨在利用模型权重重构或验证模型训练数据,但它们无法确定何时停止搜索,因为它们不知道训练集的大小。

  2. 数据集大小的重要性:了解用于训练或微调模型的图像数量对于研究人员来说非常重要,他们希望理解复制模型性能的成本,同时对于像Getty或Shuterstock这样的股票摄影提供商,了解数据集大小对于计费也是必要的。

  3. LoRA微调的普及:LoRA(Low-Rank Adaption)是一种流行的微调技术,它通过训练可加的低秩权重矩阵来适应预训练模型,同时保持预训练权重不变。

论文中提出的DSiRe方法通过分析LoRA权重的谱(spectrum)来恢复微调数据集的大小,并使用简单的最近邻分类器来预测数据集大小。作者还开发并发布了一个新的基准测试LoRA-WiSE,包含超过25,000个权重快照,这些快照来自2000多个不同LoRA微调模型。DSiRe在LoRA-WiSE上的表现证明了从LoRA权重中恢复数据集大小的可行性。

论文如何解决这个问题?

论文通过提出一个名为DSiRe(Dataset Size Recovery)的方法来解决数据集大小恢复问题。DSiRe方法的核心步骤如下:

  1. 分析LoRA权重与数据集大小的关系

    • 论文首先分析了LoRA(Low-Rank Adaptation)微调权重的Frobenius范数和奇异值谱与微调数据集大小之间的关系。通过实验,作者发现这些数值与数据集大小存在负相关性。

  2. 特征提取

    • DSiRe提取每个LoRA矩阵的奇异值作为特征。这些特征被用作训练分类器的输入。

  3. 训练分类器

    • 使用从不同数据集大小微调得到的LoRA模型的权重,DSiRe训练一组基于最近邻的分类器。每一层的权重矩阵都对应一个分类器。

  4. 预测数据集大小

    • 在测试阶段,对于一个新的模型,DSiRe通过比较每一层的奇异值谱与训练阶段得到的最近邻层的奇异值谱,来预测该层对应的数据集大小。然后通过多数投票的方式来确定最终的数据集大小预测。

  5. 创建LoRA-WiSE基准测试

    • 为了评估DSiRe方法的有效性,作者开发并发布了一个新的基准测试LoRA-WiSE。这个基准测试包含超过25,000个权重快照,来自2000多个不同LoRA微调模型。

  6. 评估与优化

    • 通过在LoRA-WiSE基准测试上的实验,DSiRe显示出高度有效性,平均绝对误差(MAE)为0.36,表明该方法在实际设置中能够准确地恢复数据集大小。

  7. 鲁棒性测试

    • 论文还对DSiRe方法进行了鲁棒性测试,包括对不同LoRA超参数、不同数据集大小范围和不同模型架构的测试,以确保方法的泛化能力。

DSiRe方法的提出为从模型权重中恢复数据集大小提供了一种有效的技术手段,这对于提高模型的隐私保护和理解模型训练成本具有重要意义。

论文做了哪些实验?

论文中进行了一系列实验来评估DSiRe方法在数据集大小恢复任务上的有效性。以下是主要的实验内容和设置:

  1. 实验设置

    • 使用Stable Diffusion 1.5作为预训练模型,并采用LoRA方法进行微调。

    • 训练集由不同数据集大小的15个不同的个性化集合构成,每个集合训练90个权重样本(对于低和中等数据集大小)和75个权重样本(对于高数据集大小范围)。

    • 使用35个额外的个性化集合进行评估。

  2. 基线比较

    • 将DSiRe与基线方法Frobenius-NN进行比较,后者使用Frobenius范数作为特征,并采用最近邻分类器。

  3. 不同数据范围的评估

    • 分别在低数据范围(1-6张图像)、中等数据范围(1-50张图像)和高数据范围(1-1000张图像)上评估DSiRe的性能。

  4. 性能指标

    • 主要使用平均绝对误差(MAE)作为评估指标,同时报告准确率(Accuracy)和平均绝对百分比误差(MAPE)作为补充指标。

  5. 结果分析

    • 在不同数据范围上,DSiRe均展现出比Frobenius-NN更好的性能,尤其是在高数据范围上,DSiRe的准确率达到90%以上。

  6. 鲁棒性测试

    • 对DSiRe在不同LoRA超参数(如不同的LoRA秩和随机种子)下的鲁棒性进行了测试。

    • 在Stable Diffusion 2.0模型上测试了DSiRe的鲁棒性,证明其与特定模型架构无关。

  7. 消融研究

    • 研究了使用不同数量的微数据集对DSiRe性能的影响,发现即使使用很少的微数据集,DSiRe也能取得较高的准确率。

    • 测试了不同分类器选择对DSiRe性能的影响,发现基于多数投票的最近邻分类器组合表现最佳。

  8. 防御策略测试

    • 通过数据增强技术(如图像翻转)来降低DSiRe性能,测试了其对DSiRe准确性的影响。

  9. 社会影响分析

    • 讨论了DSiRe任务对研究和数字艺术社区的潜在积极影响。

  10. 结论

    • DSiRe为模型反演和成员资格推断攻击提供了一个上限界限,并为研究人员和摄影素材所有者提供了量化分析,以估计微调模型的数据成本。

这些实验结果不仅证明了DSiRe方法的有效性,还展示了其在不同条件下的鲁棒性,为数据集大小恢复任务提供了有力的技术支持。

论文的主要内容:

这篇论文的主要内容可以概括为以下几个要点:

  1. 问题提出:论文提出了一个新的任务——数据集大小恢复(Dataset Size Recovery),目的是从模型权重中确定用于训练模型的样本数量。

  2. 动机与背景:数据集大小对于理解模型训练成本、评估模型性能以及隐私保护等方面都具有重要意义。然而,现有的模型反演和成员资格推断攻击无法确定训练集的大小。

  3. DSiRe方法:论文提出了一种名为DSiRe的方法,用于恢复使用LoRA(Low-Rank Adaptation)微调的模型的数据集大小。DSiRe通过分析LoRA权重矩阵的奇异值谱来预测数据集大小。

  4. 实验与评估:作者开发了一个新的基准测试LoRA-WiSE,包含超过25,000个权重快照,来自2000多个不同的LoRA微调模型。DSiRe在LoRA-WiSE上表现出色,平均绝对误差(MAE)仅为0.36。

  5. 相关研究:论文回顾了模型微调、成员资格推断攻击、模型反演攻击等相关领域的研究,并讨论了LoRA微调的安全问题。

  6. 方法细节:DSiRe方法使用简单的最近邻分类器,基于每层权重矩阵的奇异值谱进行训练和预测。实验结果表明,DSiRe对于不同数据范围和模型架构都具有较好的鲁棒性。

  7. 消融研究:论文通过消融研究探讨了不同因素对DSiRe性能的影响,包括微数据集的数量、LoRA超参数、分类器选择等。

  8. 社会影响:论文讨论了数据集大小恢复任务对于研究社区和数字艺术社区的潜在积极影响,如促进隐私意识部署和提高对模型训练资源需求的认识。

  9. 结论:DSiRe为模型反演和成员资格推断攻击提供了一个上限界限,并为研究人员和摄影素材所有者提供了量化分析,以估计微调模型的数据成本。

  10. 未来工作:论文提出了一些可能的研究方向,包括提高低数据范围内的准确性、开发数据驱动的解决方案、扩展到预训练数据集大小恢复等。

整体而言,这篇论文在机器学习模型的隐私保护和性能评估方面提供了新的视角和方法,对于理解和改进模型训练具有重要意义。

2.HUWSOD: Holistic Self-training for Unified Weakly Supervised Object Detection

图片

标题: HUWSOD:统一弱监督目标检测的整体自我训练 

作者:Liujuan Cao, Jianghang Lin, Zebo Hong, Yunhang Shen, Shaohui Lin, Chao Chen, Rongrong Ji

文章链接:https://arxiv.org/abs/2406.19394

项目代码:https://github.com/shenyunhang/HUWSOD

图片

图片

图片

图片

图片

图片

图片

图片

图片

图片

摘要:

        大多数 WSOD 方法依赖于传统的对象提案来生成候选区域,并且面临着不稳定的训练,这很容易卡在较差的局部最优状态中。在本文中,我们介绍了一种称为 HUWSOD 的统一、高容量弱监督目标检测 (WSOD) 网络,它利用了一个全面的自训练框架,无需外部模块或额外的监督。HUWSOD 创新地将自监督提案生成器和自动编码器提案生成器与多速率重采样金字塔相结合,以取代传统的对象提案,从而实现端到端的 WSOD 训练和推理。此外,我们实施了一个整体的自我训练方案,通过逐步熵最小化和一致性约束正则化来细化检测分数和坐标,确保在同一图像的随机增强中实现一致的预测。对 PASCAL VOC 和 MS COCO 的大量实验表明,HUWSOD 可以与最先进的 WSOD 方法竞争,无需离线提案和额外数据。HUWSOD 的峰值性能接近完全监督的 Faster R-CNN。我们的研究结果还表明,随机初始化的盒子虽然与精心设计的离线对象提案有很大不同,但对WSOD训练是有效的。

这篇论文试图解决什么问题?

这篇论文试图解决的是**弱监督目标检测(Weakly Supervised Object Detection, WSOD)**问题。在这个问题中,目标检测器的训练仅依赖于图像级别的注释,而不是传统的边界框或像素级的详细注释。具体来说,论文中提到了以下几个关键问题:

  1. 现有WSOD方法的局限性:大多数现有的WSOD方法依赖于传统的目标候选区域生成方法(如选择性搜索和边缘框),这些方法在训练过程中容易不稳定,容易陷入较差的局部最优解。

  2. 训练的不稳定性:WSOD对于初始化敏感,如何在训练的早期阶段产生高质量的候选区域以减轻不稳定性尚未得到解决。

  3. 多尺度问题:现有方法使用多尺度图像金字塔来解决训练和推理过程中的尺度变化问题,但忽视了如何设计内部网络结构来加强单图像候选区域。

  4. 伪标签的不稳定性:基于熵最小化原则的实例精细化方法可能无法很好地覆盖目标对象,并且容易过拟合到错误的伪标签上。

为了解决这些问题,论文提出了一个名为HUWSOD(Holistic Self-training for Unified Weakly Supervised Object Detection)的统一且高容量的WSOD网络框架,该框架通过自我训练方案进行整体训练,无需外部模块或额外的监督。

论文如何解决这个问题?

论文提出了一个名为HUWSOD(Holistic Self-training for Unified Weakly Supervised Object Detection)的框架,通过以下几个关键创新点来解决弱监督目标检测问题:

  1. 统一网络结构:HUWSOD设计了一个自监督的目标候选生成器(Self-supervised Proposal Generator, SSOPG)和一个自动编码器目标候选生成器(Autoencoder Proposal Generator, AEOPG),以及一个多速率重采样金字塔(Multi-rate Resampling Pyramid, MRRP),以替代传统的目标候选生成方法,并实现端到端的训练和推理。

  2. 自监督学习:SSOPG利用HUWSOD最终预测结果作为对象分类和回归目标,以自监督的方式进行训练。AEOPG通过学习特征图的低秩分解来捕获显著的对象。

  3. 多尺度信息聚合:MRRP通过不同扩张率聚合多尺度上下文信息,增强了对尺度变化的处理能力,而无需学习新的参数。

  4. 整体自训练方案:HUWSOD引入了一个整体自训练方案,包括逐步熵最小化(Step-wise Entropy Minimization, SEM)和一致性约束正则化(Consistency-Constraint Regularization, CCR)。SEM通过选择高置信度的对象提议作为正样本来减少熵,而CCR通过匹配来自同一图像的随机增强视图的预测来强制执行一致性。

  5. 指数移动平均(Exponential Moving Average, EMA):HUWSOD使用EMA在对象挖掘和实例精细化之间传播部分学习到的知识,以提高所有分支的性能。

  6. 无外部模块或额外监督:HUWSOD是自包含的,在线推理和离线训练中都不需要外部模块或额外的监督。

  7. 端到端训练:HUWSOD能够从随机初始化的框中学习有效的对象候选项,仅使用图像级标签,从而实现大规模的端到端训练和推理。

通过这些创新点,HUWSOD在PASCAL VOC和MS COCO数据集上展示了与最先进WSOD方法相媲美的性能,同时摆脱了对离线提议和额外数据的依赖。此外,当使用类别不可知的真实边界框时,HUWSOD的性能接近Faster R-CNN,表明其有能力达到全监督的准确性。

论文做了哪些实验?

 论文中进行了广泛的实验来验证HUWSOD(Holistic Self-training for Unified Weakly Supervised Object Detection)框架的有效性。以下是论文中提到的一些关键实验:

  1. 数据集:实验在PASCAL VOC 2007、PASCAL VOC 2012和MS COCO 2014数据集上进行,这些是目标检测领域广泛使用的基准数据集。

  2. 评估协议:使用了mAP(mean Average Precision)和CorLoc(Correct Localization)两种评估协议来衡量检测性能和定位性能。

  3. 实现细节:包括使用的网络架构(如VGG16和WS-ResNet),训练策略(如学习率、动量、dropout率等),以及数据增强方法。

  4. 消融研究:对HUWSOD的不同组件进行了消融研究,包括自监督目标提议生成器(SSOPG)、逐步熵最小化(SEM)、多速率重采样金字塔(MRRP)和一致性正则化自训练(CCR)。

  5. 与现有方法的比较:将HUWSOD与当前最先进的WSOD方法进行了比较,包括那些使用外部目标提议模块或额外数据的方法。

  6. 上界性能分析:分析了在已知真实边界框(GT-bbox Known)情况下WSOD方法的上界性能,以及HUWSOD在这种设置下的性能。

  7. 目标提议分析:评估了不同方法在不同IoU(Intersection over Union)比例下的目标提议召回率。

  8. 与其他WSOD方法的兼容性:展示了HUWSOD如何与多阶段WSOD方法(如SoS和BiB)集成,并提高了性能。

  9. 在自动驾驶中的应用:在Cityscapes数据集上评估了HUWSOD在自动驾驶场景中的性能。

  10. 定量分析:包括可视化分析,展示了AEOPG生成的目标提议、编码表示和低秩特征图,以及与其他方法的定性比较。

这些实验结果表明,HUWSOD在没有外部模块或额外监督的情况下,能够实现与最先进的WSOD方法相媲美的性能,并且在某些情况下,通过集成传统目标提议方法,可以进一步提高性能。此外,HUWSOD在复杂场景中的应用表明了其在实际问题中的潜力。

论文的主要内容:

这篇论文提出了一个名为HUWSOD(Holistic Self-training for Unified Weakly Supervised Object Detection)的框架,旨在解决弱监督目标检测(WSOD)问题。WSOD的目标是在仅有图像级注释的情况下训练目标检测器。以下是论文的主要内容总结:

  1. 问题背景:介绍了WSOD的挑战,包括不稳定的训练过程、对初始化的敏感性、多尺度问题以及伪标签的不稳定性。

  2. HUWSOD框架:提出了一个统一的网络结构,包括自监督目标提议生成器(SSOPG)和自动编码器目标提议生成器(AEOPG),以及多速率重采样金字塔(MRRP)。

  3. 自监督学习:SSOPG和AEOPG的设计允许在没有额外监督的情况下学习目标位置,通过自监督的方式进行训练。

  4. 整体自训练方案:引入了逐步熵最小化(SEM)和一致性约束正则化(CCR),以减少分类熵并整合一致性约束。

  5. 端到端训练:HUWSOD支持端到端训练和推理,无需外部模块或额外的监督。

  6. 实验验证:在PASCAL VOC和MS COCO数据集上进行了广泛的实验,证明了HUWSOD与现有最先进方法相比具有竞争力。

  7. 消融研究:通过消融研究分析了HUWSOD各个组件的贡献和性能。

  8. 上界性能分析:展示了当使用真实边界框时,HUWSOD的性能可以接近全监督的目标检测器。

  9. 目标提议分析:评估了不同目标提议方法在不同IoU阈值下的召回率。

  10. 兼容性测试:证明了HUWSOD可以与其他WSOD方法集成,进一步提高性能。

  11. 实际应用:在Cityscapes数据集上测试了HUWSOD在自动驾驶场景中的应用。

  12. 可视化分析:提供了目标提议和检测结果的可视化分析,展示了HUWSOD生成高质量目标提议和检测结果的能力。

  13. 未来方向:讨论了HUWSOD的潜在改进方向和未来研究的可能性。

总的来说,论文提出了一个创新的框架,通过自监督学习和整体自训练方案,在没有边界框注释的情况下有效地进行目标检测,展示了在多个数据集上与全监督方法相媲美的性能。

3.Looking 3D: Anomaly Detection with 2D-3D Alignment 

标题:3D外观:使用2D-3D对齐进行异常检测 

作者:Ankan Bhunia, Changjian Li, Hakan Bilen

文章链接:https://arxiv.org/abs/2406.19393

项目代码:https://github.com/VICO-UoE/Looking3D

摘要:

        基于视觉线索的自动异常检测在制造和产品质量评估等各个领域都具有实际意义。本文介绍了一种新的条件异常检测问题,该问题涉及通过将查询图像与参考形状进行比较来识别查询图像中的异常。为了应对这一挑战,我们创建了一个大型数据集 BrokenChairs-180K,由大约 180K 张图像组成,具有不同的异常、几何形状和纹理,以及 8,143 个参考 3D 形状。为了完成这项任务,我们提出了一种基于转换器的新方法,该方法通过特征对齐显式学习查询图像和参考 3D 形状之间的对应关系,并利用自定义的注意力机制进行异常检测。我们的方法通过全面的实验进行了严格的评估,作为该领域未来研究的基准。

这篇论文试图解决什么问题?

这篇论文提出了一个新的条件性异常检测问题,旨在通过将查询图像与参考形状进行比较来识别查询图像中的异常。具体来说,这个问题的挑战在于:

  1. 识别和定位异常:在查询图像中识别出与参考3D模型不匹配的异常区域,并将其定位出来。

  2. 跨模态学习:需要模型能够处理和比较两种不同的数据模态,即2D图像和3D形状,这要求模型能够学习到跨模态之间的对应关系。

  3. 泛化到未见实例:模型需要能够泛化到在训练时未见过的新的物体实例上,这要求学习到的特征表示能够编码多样化的3D形状和外观。

  4. 处理纹理和材质变化:由于参考3D模型不包含纹理信息,模型需要学习到对不同材料、颜色和纹理变化不变的特征表示,同时对几何形状的变化保持敏感。

  5. 无视角信息:在训练过程中没有对象实例的视角信息,要求模型以无监督的方式建立图像与3D模型之间的局部对应关系。

论文通过创建一个大规模数据集BrokenChairs-180K,并提出了一种基于Transformer的方法来解决上述挑战,这种方法通过特征对齐学习查询图像和参考3D形状之间的对应关系,并使用定制的注意力机制进行异常检测。

论文如何解决这个问题?

论文中提到了几个与异常检测(Anomaly Detection, AD)相关的研究领域和具体工作,以下是一些主要的相关研究:

  1. 标准异常检测技术:论文建议参考[9, 26]进行详细的文献回顾。这些文献涵盖了异常检测的多种技术和方法。

  2. 条件/参照异常检测:在许多异常检测应用中,一个实例的异常性取决于其特定的上下文[32]。例如,可以在特定的时空背景下更准确地检测到异常的温度变化。

  3. 异常检测图像基准:论文指出,异常检测发展中的一个主要问题是缺乏具有现实异常的大型数据集。一些常见的做法是选择现有分类数据集的一个任意子集(例如,MNIST[20],CIFAR10[18]),将其视为异常类别,并仅在其余类别上训练模型。

  4. 2D-3D 跨模态相关性:基于图像的3D形状检索是一个相关问题,旨在为给定的2D图像检索最相似的形状。大多数现有工作学习将2D图像和3D形状嵌入到一个共同的特征空间,并使用三元组损失进行度量学习[13, 14, 23]。

  5. 特定应用中的2D-3D相关性:2D-3D相关性也被研究用于特定应用,如物体姿态估计[22, 37]、3D形状估计[15]以及通过使用一组3D模型在图像中进行物体检测[2]。

  6. 数据集和基准:论文提到了一些现有的数据集,如MVTEC AD[3],它包含了各种缺陷的真实世界实例,以及PAD[38],它与本文的目标类似,但本文的任务假设更少,旨在检测细粒度的几何异常。

  7. 深度学习和异常检测:论文中还提到了一些使用深度学习进行异常检测的研究,例如使用单类神经网络[7]和基于Transformer的图像识别模型[11]。

这些相关研究为本文提出的条件性异常检测问题提供了背景和对比,同时也展示了该领域的研究进展和挑战。

论文做了哪些实验?

论文通过以下几个关键步骤解决条件性异常检测问题:

  1. 创建大规模数据集:为了训练和评估模型,作者创建了一个名为BrokenChairs-180K的大规模数据集,包含约180K图像,涵盖多种异常、几何形状和纹理,并与8,143个参考3D形状配对。

  2. 提出基于Transformer的方法:作者提出了一种新颖的基于Transformer的方法,称为Correspondence Matching Transformer (CMT)。该方法通过特征对齐学习查询图像和参考3D形状之间的对应关系。

  3. 特征对齐和注意力机制:CMT模型使用特征对齐技术来比较查询图像和参考3D形状,并利用定制的注意力机制来检测异常。

  4. 3D位置编码:为了解决2D图像和3D形状之间的域差距,CMT引入了3D位置编码(3DPE),将3D位置信息编码到多视图图像中,以帮助模型学习到与3D形状相对应的2D特征。

  5. 对齐辅助任务:为了解决在没有视角信息的情况下建立局部对应关系的问题,CMT使用了一个对齐辅助任务,通过半监督学习来对齐查询图像和多视图图像中的局部特征。

  6. 综合实验评估:作者通过一系列综合实验来评估CMT模型的性能,包括与其他基线方法的比较、消融研究以及在真实图像上的应用。

  7. 技术细节:论文还详细介绍了CMT模型的各个组件,包括CNN编码器、3D位置编码模块、对应引导的注意力网络和视点不变的局部特征对齐机制。

通过这些方法,论文成功地展示了如何通过2D-3D对齐来检测查询图像中的异常,并为未来的研究提供了一个基准。

论文的主要内容:

这篇论文的主要内容可以总结如下:

  1. 问题介绍:提出了一个新的条件性异常检测问题,即通过比较查询图像与参考3D形状来识别图像中的异常。

  2. 数据集创建:创建了一个大规模的BrokenChairs-180K数据集,包含约180K图像和8,143个参考3D形状,图像中包含多种异常、几何形状和纹理。

  3. 方法论:提出了一种基于Transformer的方法,称为Correspondence Matching Transformer (CMT),该方法通过特征对齐学习查询图像和参考3D形状之间的对应关系,并使用定制的注意力机制进行异常检测。

  4. 技术细节:详细介绍了CMT模型的关键组件,包括CNN编码器、3D位置编码(3DPE)、对应引导的注意力网络(CGA)和视点不变的局部特征对齐机制(VLFA)。

  5. 实验评估:通过一系列实验,包括定量比较、消融研究、对k值和输入视图数量的敏感性分析、视角预测、真实数据上的评估、异常定位和用户感知研究,全面评估了CMT模型的性能。

  6. 结果:CMT模型在异常检测任务上取得了优异的性能,显著优于基线方法和其他相关技术。

  7. 局限性和未来工作:论文讨论了当前方法的局限性,如数据集仅限于椅子类别、模型假设物体是刚性的等,并提出了未来可能的研究方向。

  8. 结论:展示了通过学习跨模态的密集对应关系,可以准确检测几何形状中的细粒度异常,为制造业中的质量控制和检查提供了一种有效的解决方案。

这篇论文在异常检测领域提供了一种新的视角和方法,通过结合2D图像和3D形状信息,为检测和定位异常提供了一种有效的技术手段。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AiCharm

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值