自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(154)
  • 收藏
  • 关注

原创 破解AI黑盒!机器学习可解释性,好发分高不卷

量子优势:QSVC模型在Iris数据集上达到了97%的准确率,比SVM的93%和随机森林的90%更高,显示出量子模型在某些任务上的潜在优势。特征重要性方法:应用置换特征重要性、留一法特征重要性、SHAP值和累积局部效应(ALE)等方法,分析模型的特征重要性和可解释性。区分可解释性与解释性:明确区分了可解释性与解释性、局部与全局可解释性,以及特征重要性与特征相关性。特征组评估:强调了评估特征组对模型影响的重要性,以减轻特征相关性的影响,提供了更全面的模型解释。

2025-06-15 15:16:55 257

原创 快速傅里叶卷积大概是现在最好发论文的方向了!

2025深度学习发论文&模型涨点之——快速傅里叶卷积快速傅里叶卷积(Fast Fourier Convolution, FFC)作为频域计算与深度学习的交叉前沿,在计算效率与模型表达能力方面展现出显著优势。通过将空域卷积映射至频域实现降维计算,FFC在保持卷积局部性特征的同时,以O(N log N)的复杂度突破了传统卷积O(N²)的计算瓶颈。这一技术路径在超分辨率重建、医学图像分割、大规模遥感数据处理等领域取得了突破性进展,并衍生出频域稀疏化、混合域注意力机制、可微分频域滤波等多个研究方向。

2025-06-13 10:43:39 503

原创 多尺度特征融合超强创新,准确率飙升99%以上!

2025深度学习发论文&模型涨点之——多尺度特征融合随着深度学习在计算机视觉、自然语言处理等领域的广泛应用,多尺度特征融合(Multi-scale Feature Fusion)逐渐成为提升模型性能的关键技术之一。通过整合不同尺度或层次的特征表示,多尺度融合能够有效捕获局部细节与全局语义的协同信息,从而在目标检测、图像分割、医学影像分析等任务中展现出显著优势。然而,如何设计高效、鲁棒的融合架构,平衡计算复杂度与特征表达能力,仍是当前研究的核心挑战。我整理了一些多尺度特征融合【

2025-06-12 10:56:24 690

原创 超强创新点!靠域自适应就轻松发了SCI一区!

2025深度学习发论文&模型涨点之——域自适应域自适应(Domain Adaptation, DA)作为迁移学习的重要分支,在解决跨域数据分布差异(Domain Shift)问题中展现出显著的理论价值与实践意义。随着深度学习的快速发展,域自适应技术已广泛应用于计算机视觉、自然语言处理及医学影像分析等领域,其核心目标是通过源域(Source Domain)的知识迁移提升模型在目标域(Target Domain)的泛化性能。我整理了一些域自适应【合集,需要的同学公人人人号【AI创新工场】自取。

2025-06-11 11:11:26 310

原创 双热点结合,PINN结合贝叶斯创新思路,简直神了!

2025深度学习发论文&模型涨点之——B-PINNs物理信息神经网络(Physics-Informed Neural Networks, PINNs)作为一种融合深度学习与物理方程约束的新型建模方法,在科学计算与工程仿真领域展现出显著潜力。然而,传统PINN方法在不确定性量化、小数据场景下的泛化能力以及先验知识融合方面仍存在理论局限。为突破这些瓶颈,研究者们逐渐将贝叶斯推理框架引入PINN体系,通过概率建模赋予神经网络参数与输出以严格的统计解释。

2025-06-10 10:34:41 499

原创 只打高端局的多模态融合,再次拿下顶刊TPAMI

2025深度学习发论文&模型涨点之——多模态多模态融合,即综合运用多种模态数据(如文本、图像、音频、视频等)来实现更全面、更精准的信息感知与理解,它突破了单一模态数据在信息表达上的局限性。近年来,该领域涌现出大量创新性研究,从早期的特征拼接(Feature Concatenation)到基于注意力机制的动态融合,再到最新的神经架构搜索(NAS)驱动融合范式,研究者们逐步解决了模态异构性、时序错位和语义鸿沟等核心挑战。我整理了一些多模态融合【合集,需要的同学公人人人号【AI创新工场】自取。

2025-06-09 11:50:23 487

原创 深度学习登上Nature子刊!特征选择创新思路

2025深度学习发论文&模型涨点之——特征选择特征选择作为机器学习与数据挖掘领域的核心预处理步骤,其重要性在当今高维数据时代日益凸显。通过识别最具判别性的特征子集,特征选择算法能够有效缓解"维度灾难"、提升模型泛化能力,并增强结果的可解释性。近年来,随着深度学习与异构数据的快速发展,传统过滤式(Filter)、包裹式(Wrapper)和嵌入式(Embedded)方法正面临新的挑战与革新。我整理了一些特征选择【合集,需要的同学公人人人号【AI创新工场】自取。特征选择的最新进展及其应用。

2025-06-08 21:39:33 1474

原创 TPAMI都在发!频域结合特征融合成为大热门

2025深度学习发论文&模型涨点之——频域特征融合通过将空域/时域信息转换至频域进行分析,研究者能够更高效地提取高频细节、增强特征鲁棒性,并在跨模态任务中实现更精准的语义对齐。TPAMI 2024提出的FreqFusion框架,通过自适应低通/高通滤波器(ALPF/AHPF)分别优化类内一致性与边界锐化,在语义分割任务中提升SegFormer性能达2.8 mIoU,成为密集预测任务的通用模块。频域特征融合正从辅助模块发展为核心范式,其跨域适用性与物理可解释性为下一代AI模型提供了关键技术支持。

2025-06-07 20:53:52 937

原创 能上Nature封面的idea!强化学习+卡尔曼滤波

鲁棒性:训练时加入小量噪声的策略(Policy 2)在各种噪声环境下表现更为稳定,例如在标准差为 3.0 的无偏噪声环境下,Policy 2 的成功率达到 56%,而未加入噪声训练的策略(Policy 1)成功率为 0%。性能提升:在有偏噪声环境下,通过人为注入特定方差的噪声,可以显著提高无人机的避障性能,例如在有 0.15 米偏置的情况下,注入 0.8 米的标准差噪声可以使成功率达到 100%,而没有噪声时成功率为 0%。去噪技术:使用低通滤波器和卡尔曼滤波器等去噪技术来提高在有偏噪声环境下的性能。

2025-06-07 20:49:25 1093

原创 预训练GNN,依旧神一般的存在!堪称顶会收割机

自监督任务设计:提出了节点/边级别任务和图级别任务的自监督学习方法,避免了对监督标签的依赖,提高了模型的泛化能力。性能提升:在11个分子性质预测基准数据集上,GROVER相较于现有方法平均提升了超过6%的性能,其中在BBBP数据集上提升了7.4%,在SIDER数据集上提升了6.1%。性能提升:在多个数据集上,UPRTH相较于其他预训练方法和不使用预训练的推荐模型,平均提升了17.79%的性能,展示了其在推荐任务中的泛化能力和鲁棒性。在图级别任务中,提取分子图中的语义模式并预测它们的出现。

2025-06-05 10:44:54 506

原创 我愿称之无敌!多模态检索最新暴力涨点方案!

在MSR-VTT数据集上,与单空间检索方法相比,R@1指标提升了20.68%,R@5提升了11.6%,R@10提升了12.1%。在MSR-VTT数据集上,与仅使用ResNet特征的方法相比,R@1指标提升了19.5%,R@5提升了10.6%,R@10提升了11.0%。性能提升:在多语言语义搜索和跨模态音乐分类任务中,CLaMP 2取得显著提升,分别在WikiMT和MidiCaps基准测试中,MRR(平均倒数排名)分别提升到0.3438和0.2695,显著优于现有方法。

2025-06-04 11:12:35 277

原创 二区起步!深度学习顶会idea:CLIP这么做绝了

性能提升:在11个数据集上的实验表明,PiNI在少样本学习任务中平均性能提升了9.4%,在ImageNet上提升了1.6%,在Caltech101上提升了3.1%,在OxfordPets上提升了1.6%,在StanfordCars上提升了1.4%,在Flowers102上提升了1.1%,在Food101上提升了0.8%,在FGVCAircraft上提升了0.5%,在SUN397上提升了0.5%,在DTD上提升了0.4%,在EuroSAT上提升了0.3%。

2025-06-03 17:00:44 558

原创 清华大学发Nature!光学工程+神经网络创新结合

该研究团队巧妙地提出了一种全前向模式(Fully Forward Mode,FFM)的训练方法,这一方法在物理光学系统中直接执行训练过程,彻底摆脱了传统依赖数字计算机模拟的诸多限制。该研究团队巧妙地提出了一种全前向模式(Fully Forward Mode,FFM)的训练方法,这一方法在物理光学系统中直接执行训练过程,彻底摆脱了传统依赖数字计算机模拟的诸多限制。能效提升:通过减少光学-电子转换的次数,提高了训练过程的能效,特别是在大批次大小下,FatNet在光学设备中的推理速度显著快于GPU。

2025-05-30 10:06:47 1670

原创 Mamba OUT!线性注意力超强突破,刷爆SOTA

例如,一个在长度为 1024 的序列上训练的 13 亿参数模型,可以在长度为 2048 的序列上进行推理,且与在长度为 2048 的序列上训练的模型相比,困惑度相同,同时训练速度提高了 11%,内存使用减少了 11%。例如,在 WikiText-103 验证集上,ALiBi 模型在长度为 3072 的序列上达到了 17.60 的困惑度,比使用正弦位置编码的模型低了约 1.07。例如,在长度为 2048 的序列上训练的 GLA 模型,可以推广到长度超过 20000 的序列,而不会显著增加困惑度。

2025-05-29 10:47:15 918

原创 横扫一区!傅里叶变换+attention简直绝了

注意力机制与傅里叶变换的交叉融合已成为机器学习与信号处理领域的前沿研究方向。性能提升:在多个模型规模和数据集上,FoPE在预训练困惑度和下游任务中的表现优于RoPE和ALiBi,具体表现为在长序列任务中准确率提升了约10-20%,困惑度降低了约10-15%。周期扩展增强:FoPE通过建模每个维度为傅里叶级数,显著增强了注意力机制的周期扩展能力,从而提高了模型在长序列任务中的性能。理论支持:基于离散信号处理理论,提供了对RoPE在频率域中的非理想特性的深入分析,为改进方法提供了坚实的理论基础。

2025-05-28 10:45:55 426

原创 双通道卷积神经网络(DCNN) 上大分!创新度爆表

性能提升:在多个采样率(16 kHz和48 kHz)的目标语音上,AP-BWE在语音质量方面达到了最先进的性能,例如在16 kHz采样率下,与sinc滤波插值相比,Log-Spectral Distance(LSD)指标平均降低了61.7%,ViSQOL指标平均提高了8.5%。性能提升:在多个数据集上,CTO的性能显著优于现有的先进方法,同时保持了较低的计算复杂度,例如在CoNIC数据集上,Dice分数达到了80.68%,比Attention UNet高出0.59%。

2025-05-27 10:08:08 946

原创 发多模态特征融合,学术小白也能拿下CCF A!

视觉层选择:首次提出基于相似性和比例的视觉层选择标准,实验表明,从不同阶段选择视觉特征(如开始、中间和结束阶段)可以显著提升模型的泛化能力,例如在General任务中,选择{3, 18, 23}层的组合相比仅选择单一层(如{23})提升了约1.46%的性能。动态特征融合模块:通过动态增强特征之间的差异信息,提升了多模态图像融合的性能,例如在CT-MRI图像融合任务中,DFFM提升了约2.1%的VIF指标。多阶段特征融合策略(MSFFS):在特征提取的不同阶段(帧级、时空级、全局级)进行多模态融合。

2025-05-26 11:15:53 379

原创 LSTM完美结合卡尔曼滤波!起步就能发二区

性能提升:在7.5公里的室内行人运动数据测试中,与现有固定阈值零速度检测器相比,3D定位误差显著降低,平均误差减少了60.1%(训练集)和51.6%(测试集)。性能提升:在1秒和4秒的轨迹测试中,AOBA的归一化波束形成增益接近90%,相比其他方法(如ARIMA、EKF和LSTM),性能提升显著。性能提升:在图像插补任务中,RKN的对数似然值比KVAE(平滑)高出约0.5,比E2C和SIN高出约80和90,显示出显著的性能提升。

2025-05-25 19:17:25 532

原创 Attention再创辉煌!混合注意力太顶了

混合注意力机制(HAM):通过结合EMSA和CA,显著提高了对小缺陷的检测能力,特别是在小缺陷的定位精度上,mAP(平均精度均值)达到了91.5%,比YOLOv5算法高出4.3%。混合注意力机制(HAM):提出了一种混合注意力机制,结合了增强的多头自注意力(EMSA)和坐标注意力(CA),以增强网络对上下文信息的感知能力,并提高网络对特征的利用范围。特征融合能力提升:改进的FPN通过混合注意力机制,增强了对小尺寸缺陷的检测性能,与传统的FPN相比,在小缺陷检测的召回率上提高了9.4%。

2025-05-25 00:28:16 921

原创 频域+Attention=顶会accept!性能飙升33%

性能提升:在CIFAR-10和CIFAR-100数据集上,使用ResNet20和ResNet19结构时,FSTA-SNN的准确率分别达到了94.72%和96.52%,相比现有最佳方法分别提升了0.44%和0.05%。例如,在CVC-ClinicDB数据集上,MADGNet的DSC和mIoU分别达到了92.0%和85.5%,相比现有最佳方法分别提升了1.9%和2.7%。HAM模块:提出层次化注意力机制,根据不同层的特征性质,分别应用通道注意力和空间注意力,显著提升了模型的性能。

2025-05-23 10:52:47 767

原创 招牌1区Top!Attention最近又火了,完美融合LSTM

在Drive&Act-Distracted数据集上,加入注意力机制后,模型的准确率从95.9005%提升到了97.8911%,提升了1.9906%。扩张卷积的引入:通过扩张卷积扩大了模型的感受野,增强了多尺度特征提取能力,从而提高了模型对复杂背景和多尺度目标的识别能力。性能提升:提出的基于注意力机制的空间化词嵌入Bi-LSTM模型在IMDB数据集上取得了优异的性能,准确率达到了90.60%,召回率达到了90.40%,F1分数达到了90.50%,显著高于其他经典模型。

2025-05-22 10:23:40 929

原创 我愿称之无敌!全局特征+局部特征新突破

性能提升:在高度多样化的测试数据集上,该方法实现了较高的平均精度(mAP),例如在“Conditional GANs”家族中mAP为98.305%,显著优于其他基准方法(如CNN aug的94.620%)。全局到局部特征选择:ProtoGate通过软全局选择和局部选择相结合的方式,能够有效捕捉全局和局部信息,提高了特征选择的准确性和解释性。全局到局部特征选择:提出了一种全局到局部的特征选择方法,通过软全局选择和局部选择相结合,平衡全局和局部特征选择。

2025-05-21 11:31:25 713

原创 创新拉满!CNN+Transformer+Mamba好发不卷

例如,在IXI数据集上,I2I-Mamba在T1, T2 → PD任务中实现了33.48 dB的PSNR和0.970的SSIM,比现有方法分别提高了2.0 dB和2.0%。时空关系建模机制:提出的三种时空关系建模机制显著提高了变化检测的性能。时空关系建模:设计了三种时空关系建模机制,包括时空序列建模、时空交叉建模和时空并行建模,充分利用Mamba架构的属性,实现多时相特征的时空交互。螺旋扫描轨迹:引入了一种新的螺旋扫描轨迹,用于学习特征图的空间上下文,与传统的光栅扫描轨迹相比,具有更均匀的空间敏感性。

2025-05-20 09:54:09 620

原创 能发Nature的idea!Transformer+图表示学习

这些编码方法包括中心性编码、空间编码和边编码。线性复杂度的图Transformer:首次提出了线性复杂度的图Transformer架构,能够处理包含数千个节点的大规模图,显著扩展了图Transformer的应用范围。Transformer在生物网络中的应用:首次将Transformer架构应用于生物网络中的癌基因识别任务,显著提高了识别的准确性和可解释性。可解释性增强:通过分析模型的梯度和注意力权重,TREE能够解释哪些组学数据和网络路径对癌基因的识别最为关键,为癌症机制的研究提供了新的视角。

2025-05-19 10:41:22 827

原创 将Attention融入损失函数!简直颠覆传统

性能提升:在CityScapes数据集上,与标准U-Net相比,MTAN在语义分割任务中的mIoU从51.91%提升到53.29%,在深度估计任务中的绝对误差从0.0138降低到0.0144。性能提升:在WIDER-Attribute数据集上,与标准ResNet-101相比,mAP从83.7%提升到86.4%,在PETA数据集上,F1分数从84.79%提升到86.46%。损失函数连接:提出了一种基于损失的注意力机制,将注意力机制与损失函数直接连接,同时学习实例权重和预测,以及包预测。

2025-05-18 14:57:08 934

原创 2025年了,怎么还这么多Mamba呀!

性能提升:HMNet在多个少样本分割基准数据集上取得了SOTA性能,相比现有方法,在PASCAL-5i数据集上,mIoU提升了1.8%,在COCO-20i数据集上,mIoU提升了2.2%。性能提升:DepMamba在两个大规模抑郁症数据集上均取得了SOTA性能,相比现有方法,在D-Vlog数据集上,准确率提升了1.8%,在LMVD数据集上,准确率提升了2.9%。计算效率:HMNet在保持高性能的同时,显著降低了计算复杂度,相比基于注意力的方法,FLOPs减少了约70%,推理速度提升了约2倍。

2025-05-17 19:04:32 865

原创 顶会常青树:时间序列!2025年必将爆发

从经典的自回归积分滑动平均(ARIMA)模型到深度学习驱动的时序预测框架(如Transformer、TCN),该领域的发展不仅推动了计量经济学、气象学、生物医学等学科的基础研究,也为工业界的高频交易、设备监测等场景提供了关键技术支撑。Soft-DTW损失函数:提出了一种基于动态时间弯曲(DTW)的可微分损失函数,通过计算所有可能对齐路径的成本的软最小值,使该函数适用于深度学习模型的优化。可微分性:首次将DTW转化为可微分的损失函数,使其能够直接用于深度学习模型的训练,显著提升了时间序列任务的优化能力。

2025-05-16 09:53:57 755

原创 顶会新宠!2025 CNN+LSTM+Attention 杀疯了

从方法论层面看,该架构实现了空间特征抽取(CNN)、时序动态建模(LSTM)和特征自适应加权(Attention)的三重耦合:CNN的局部感知特性有效捕获输入数据的空间局部相关性,LSTM的门控机制则解决了长程依赖建模的梯度问题,而注意力机制通过可微分权重分配实现了特征层面的动态聚焦。相空间参数优化:通过增量注意力机制优化相空间参数,相比传统方法(如CAO、FNN和C–C),在Logistic、Lorenz和太阳黑子时间序列上,预测精度分别提高了至少15.28%、17.86%和24.38%。

2025-05-15 09:35:50 1052

原创 【登上Nature】2025年时空预测必将起飞!

从方法论角度看,现有研究可划分为三大范式:基于统计建模的经典方法(如ST-ARIMA、层次贝叶斯模型)、基于机器学习的混合方法(如时空图神经网络、注意力机制增强的LSTM),以及基于物理机理的耦合方法(如神经微分方程与数值模型的联合建模)。零样本重建:首次提出在没有成对训练数据的情况下,仅通过预训练模型和稀疏测量实现时空动力学的重建和预测,显著提升了模型在稀疏数据条件下的泛化能力。时空异质性建模:通过时空解耦掩码策略,模型能够有效学习时空数据中的复杂异质性,显著提高了对时空幻象问题的鲁棒性。

2025-05-14 12:27:00 843

原创 性能提至92.45%,域自适应横扫顶会!

随着深度学习的发展,域自适应技术逐渐从传统的统计对齐方法(如最大均值差异MMD、对抗训练DANN)演进至基于预训练模型、自监督学习与扩散模型的新范式,同时在计算机视觉、自然语言处理及医疗影像分析等领域取得了突破性进展。性能提升:与现有的监督学习方法相比,该无监督方法的Dice系数仅低0.7%,接近当前最先进的监督学习方法Hippodeep(Dice系数为0.9222)。模型泛化能力:该方法在新生儿数据上表现出色,同时在成人数据上也保持了较高的分割精度(Dice系数为0.9521),证明了其良好的泛化能力。

2025-05-13 09:54:26 845

原创 收拾收拾准备升区了!自注意力机制+CNN成新赛道

两者的结合既保留了CNN的归纳偏置优势,又引入了注意力机制的动态权重分配特性,在图像分类、目标检测、语义分割等任务中展现出显著的性能提升。特征耦合单元(FCU):设计了FCU来融合卷积网络的局部特征和Transformer的全局特征,通过交互式学习提高特征表示能力。特征融合:结合了卷积网络的局部特征和Transformer的全局特征,通过交互式融合提高特征表示能力。特征融合:结合了卷积网络的局部特征和Transformer的全局特征,通过交互式学习提高特征表示能力。

2025-05-12 10:37:07 825

原创 频发Nature,液态神经网络起飞!LNN一生,不弱于人

在这一背景下,液态神经网络(Liquid Neural Networks, LNNs)作为一类新型的连续时间神经网络范式,通过引入神经常微分方程(Neural ODEs)和动态系统理论,展现出对非平稳时序数据独特的建模优势。闭式近似:提出了一种闭式近似方法,用于高效地模拟液态时间常数网络(LTC)中神经元和突触的动态交互,避免了传统常微分方程(ODE)求解器的瓶颈。液态时间常数网络(LTC):利用LTC网络的动态特性,结合卷积神经网络(CNN)进行感知和控制,模拟生物神经系统中的神经元和突触动态。

2025-05-09 09:29:36 724

原创 刷爆SOTA!可解释GNN不愧为顶会宠儿

理论保证:提供了理论分析,证明了GPF和GPF-plus在某些情况下能够实现比微调更好的理论调整结果,为方法的有效性提供了坚实的数学基础。联合预训练:提出了一种新的预训练策略,通过同时在节点级和图级进行预训练,避免了负迁移,显著提高了模型在下游任务中的泛化能力。图提示特征增强版(GPF-plus):进一步引入了节点级别的可学习向量,为每个节点提供独立的提示特征,增强了模型的表达能力。实验验证:在多种预训练策略和下游任务上验证了GPF和GPF-plus的有效性,展示了其在全样本和少样本场景下的优越性能。

2025-05-08 09:50:05 811

原创 发文黑马组合!聚类+SHAP能发顶会顶刊

然而,传统SHAP方法在无监督学习场景(尤其是聚类任务)中的应用仍面临诸多挑战,例如高维空间中的解释稳定性、聚类结构的语义对齐以及局部解释的全局一致性等问题。性能提升:在建筑物能源消耗预测任务中,与传统方法相比,SHAP聚类自适应学习(SCAL)方法显著提高了模型的鲁棒性和预测性能。性能提升:在半导体制造数据集上,Shapley值聚类显著提高了聚类质量,与完全无监督聚类相比,聚类精度提升了约30%。首次提出匿名策略聚类:首次提出针对匿名多智能体状态-动作对的策略聚类问题,并形式化了k-策略聚类问题。

2025-05-07 09:48:46 494

原创 二区及以上:Mamba+GNN绝了,你上你也行!

图引导双向扫描(GBS):提出了一种新的图引导双向扫描方法,通过有效利用图结构关系和空间序列信息,解决了传统方法中关节空间关系建模不足的问题。图引导双向扫描(GBS):通过图引导的双向扫描,将token数量从192减少到22,减少了88.5%的计算量,显著提升了模型的效率。图引导状态空间(GSS)模块:设计了GSS模块,结合图卷积(GCN)和Mamba块,有效捕捉手关节之间的结构化关系和空间序列。图选择性扫描算法:通过动态图信息增强状态空间选择和更新过程,提升了模型对复杂时空依赖关系的建模能力。

2025-05-06 11:26:36 803

原创 频登Nature子刊!2025神经网络求解PDE爆火!

基于神经网络的偏微分方程求解方法已成为计算数学与科学机器学习交叉领域的前沿研究方向。逆问题求解:能够通过将未知系数作为可训练变量,从有限的测量数据中准确识别出反应扩散方程中的未知参数,如在2D Gray-Scott系统中,即使在10%的噪声水平下,平均绝对相对误差(MARE)仅为1.61%。性能提升:LapNet在多个分子系统上的测试中,不仅在能量估计上表现出色,还在离子化势、反应势垒高度和非共价相互作用能量的估计上达到了化学精度,例如在14个不同反应的势垒高度估计中,12个达到了化学精度。

2025-04-30 09:35:06 1075

原创 频域+注意力机制超强突破!杀穿顶会简直封神

例如,在皮肤镜图像分割任务中,与M2SNet相比,MADGNet的DSC和mIoU分别提高了1.1%和1.0%;双轴注意力机制:在时间图像分解中,TIMEMIXER++利用双轴注意力机制,分别在列(时间轴)和行(频率轴)上进行注意力计算,有效分离季节性和趋势模式,从而更准确地捕捉时间序列中的周期性和趋势性变化。多分辨率时间成像:通过将时间序列转换为多分辨率时间图像,TIMEMIXER++能够在时间和频率域中同时进行模式提取,这使得模型能够更全面地捕捉时间序列中的复杂模式,从而在各种任务中实现更准确的预测。

2025-04-29 10:07:43 675

原创 顶会idea:Mamba+CNN暴力涨点新突破!

性能提升:在ISPRS Potsdam数据集上,CM-UNet的mF1为93.05%,OA为91.86%,mIoU为87.21%,相比UNetformer分别提升了0.25%、0.56%和0.41%。性能提升:在MRI心脏分割数据集上,Weak-Mamba-UNet的Dice系数为0.9171,准确率为0.9963,相比仅使用UNet或SwinUNet的框架,分别提升了约1.8%和1.3%。Mamba架构的应用:首次将Mamba架构应用于基于涂鸦的医学图像分割任务,验证了其在弱监督学习中的有效性。

2025-04-28 11:55:29 954

原创 顶会招牌idea:机器学习+组合优化 优秀论文合集

例如,在Max-Cut问题的小规模实例(15个节点)上,使用正则化目标的模型能够100%找到最优解,而未正则化的模型仅能找到约65%的最优解。数据驱动的优化:通过从历史数据中学习模式和规律,机器学习模型能够自动调整求解器的行为,以适应特定问题的结构,减少了手动调优的工作量。理论框架:建立了一个理论框架,分析了策略梯度方法在组合优化中的有效性,包括解生成器的表达能力、参数数量和优化景观。理论保证:提供了理论证据,证明了在广泛的组合优化问题类别中,存在具有多项式参数数量且优化景观良好的解生成器。

2025-04-27 11:59:00 1340

原创 Mamba+图像增强 发高区易如反掌!小白也能上手

例如,在红外和可见光图像融合任务中,FusionMamba在VIF指标上比SwinFusion提升了0.14,SCD指标上提升了0.25,证明了其在图像融合任务中的优越性。性能提升:在LOL数据集上,RetinexMamba在PSNR指标上比Retinexformer提升了0.093(LOL_v1)和0.77(LOL_v2_real),在RMSE指标上降低了0.39(LOL_v2_real),证明了其在增强效果上的优越性。性能提升:在多任务图像恢复任务中,MTAIR在所有指标上均优于现有方法。

2025-04-25 10:19:13 892

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除