自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

原创 荣登Nature招牌1区Top!持续学习简直杀疯了

在传统的机器学习中,模型通常是在固定的数据集上进行训练,一旦训练完成,模型的参数就不再改变。在这种情况下,传统的机器学习方法往往需要重新训练整个模型,这不仅耗时耗力,还可能导致灾难性遗忘,即模型在学习新任务时忘记之前学到的知识。这不仅提高了模型的适应性和灵活性,还减少了重新训练的资源消耗。理论分析:通过数学分析和实验验证,揭示了ANCL在稳定性 - 塑性权衡中的作用机制,为持续学习提供了新的理论支持。可塑性维持:通过持续注入随机性,持续反向传播算法能够有效维持网络的可塑性,避免了传统方法中的性能下降问题。

2025-08-21 12:00:14 782

原创 我愿称之无敌!CNN+LSTM最新暴力涨点方案!

模型性能提升:提出的混合CNN-LSTM模型在废物分类任务中表现出色,精度达到95.45%,显著高于现有的CNN模型(如VGG-16、ResNet-34、ResNet-50和AlexNet)。时钟时间的利用:通过实验验证了时钟时间数据在估计玩家技能中的有效性,包含时钟时间的模型比不包含的模型MAE降低了57分,提升了24%。混合CNN-LSTM模型:结合卷积神经网络(CNN)和长短期记忆网络(LSTM),用于处理时空数据,以实现位置感知的网络服务推荐。

2025-08-20 10:35:33 578

原创 大模型最近杀疯了,与知识图谱完美融合!!

而知识图谱中的知识是经过精心整理和结构化的,涵盖了众多领域和概念之间的关系,能够为LLM提供更准确、更全面的知识背景。例如,在回答一些需要特定领域知识的问题时,LLM可以借助知识图谱中的相关知识来生成更准确、更有深度的答案。性能提升:在多个任务中验证了该方法的有效性,特别是在处理动态环境中的多代理任务时,性能提升了30%以上。链式推理提示:提出了一种将知识图谱转换为链式推理提示的方法,增强了LLM对KG中实体关系的理解。图结构知识编辑模块(GKE):将知识图谱中的知识整合到LLM的参数编辑中。

2025-08-19 10:04:48 667

原创 登上Nature!清华大学光学神经网络研究突破

在传统神经网络中,信息以电信号的形式在电子元件之间传输和处理,而在光学神经网络中,信息则以光信号的形式进行传输和处理。高分辨率成像:在通过散射介质的聚焦实验中,FFM学习达到了接近衍射极限的分辨率,平均FWHM为81.2μm,PSNR为8.46dB。光学推理效率:FatNet在光学设备上比ResNet-18更快,且在3136的大批次推理中,光学推理的加速效果显著。光学模拟器:开发了光学模拟器OptConv2d,模拟4f系统的光传播,验证FatNet在光学设备上的性能。

2025-08-18 14:36:36 2065 1

原创 发文暴论!线性注意力is all you need!

线性注意力(Linear Attention)是一种改进版的注意力机制,它在保持注意力机制强大建模能力的同时,显著降低了计算复杂度和内存占用,使其更适合处理大规模数据和长序列任务。性能提升:在Cityscapes数据集上,EfficientViT-B3模型相比SegFormer-B1模型,mIoU提升了4.5%,同时在边缘GPU(Jetson AGX Orin)上的推理速度提升了8.8倍。性能提升:在LLaMA模型上,使用增强线性注意力方法,相比传统线性注意力方法,实现了高达6.67倍的困惑度降低。

2025-08-16 20:39:36 820

原创 时空预测:2025年的最新创新点,涨点起飞了!

例如,在北京数据集上,ST-MGCN的均方误差(RMSE)为10.78,比之前的最佳方法ST-GCN(RMSE为11.62)降低了7.2%。时空特征提取:模型首先将输入图像分割成多个小块,然后通过补丁嵌入层进行初步处理,最后利用VMRNN层结合前一时间步的隐藏状态和细胞状态来生成当前的隐藏状态和细胞状态,从而实现对未来帧的预测。首次结合Vision Mamba和LSTM:首次将Vision Mamba引入时空预测领域,利用其卓越的长序列建模能力,结合LSTM的时间序列处理能力,显著提升了模型的预测性能。

2025-08-15 11:41:11 1145

原创 狂发顶会的工业异常检测,创新思路竟如此easy!

在多个基准数据集和设置下,该方法实现了少样本异常检测的最新性能:在MVTec 3D-AD数据集上,与之前的最佳方法相比,图像级AUROC提升了5.27%,像素级AUROC提升了6.04%。通过避免显式嵌入到Krein空间和基于特征分解的构建新的内积,提高了算法的计算效率:与之前的多模态异常检测方法相比,该方法更快,占用内存更少。首次提出基于变分图像生成器的框架:用于预测和保持提供的无缺陷图像的方差,在只有单个或少数无缺陷图像的情况下,也能超越以往方法。

2025-08-14 11:09:53 712

原创 多模态对齐,深度学习新成果轻松发CVPR!

这一技术在人工智能领域变得尤为重要,因为不同模态的数据在表示方式、语义层次和特征空间上存在显著差异,而多模态对齐能够有效地整合这些差异,为多模态数据的处理与融合提供支持。在视频字幕生成任务中,从9.9提升到12.0;特殊损失函数:设计了一个特殊的损失函数,包括亮度一致性损失和收敛性损失,帮助Lucas-Kanade算法在多模态图像对齐任务中更好地收敛,提升了对齐精度。特殊损失函数:设计了一个特殊的损失函数,包括亮度一致性损失和收敛性损失,以帮助Lucas-Kanade算法在多模态图像对齐任务中更好地收敛。

2025-08-13 10:02:05 705

原创 强强联合!交叉注意力+特征融合双热点起飞

性能提升:在Flickr30K和MS-COCO数据集上,与现有方法相比,图像到句子检索的R@1从67.4%提升到74.2%,句子到图像检索的R@1从55.5%提升到54.8%。解码器设计:解码器通过交织的2D-3D交叉注意力实现隐式的2D和3D特征融合,交替切换查询和键值对的角色。多模态交叉注意力网络(MMCA):提出了一种新的网络架构,联合建模图像区域和句子单词的模内关系和模间关系。计算效率:通过邻域交叉注意力和动态静态交互模块,实现了高效的特征融合,同时保持了较低的计算开销。

2025-08-12 11:06:03 815

原创 登上Nature!特征选择依旧神一般的存在

性能提升:DUBStepR在多个单细胞RNA测序数据集上显著优于现有方法,如在10x Genomics、Drop-Seq、CEL-Seq2和Smart-Seq2等协议的数据集上,其平均细胞类型分离度(Silhouette指数)在200 - 300个特征时达到最大,且在所有特征集大小范围内均优于其他方法。性能提升:在顶夸克标记任务中,仅使用9个能量流多项式(EFPs)作为特征,就达到了与ParticleNet - Lite相当的性能,而ParticleNet - Lite使用了更多的模型参数。

2025-08-11 14:43:09 666

原创 顶会收割机:多模态情感分析,好发一区!

例如,使用wav2vec2.0特征的GMFN模型在CMU-MOSI数据集上达到了83.72%的准确率,比使用原始特征的模型提升了约6.8%。性能提升:在多个真实世界的数据集上,MoNIG模型不仅在回归精度上取得了优异的性能,还能够提供合理的不确定性估计,确保决策的可信度。例如,在CMU-MOSI数据集上,使用预训练模型的准确率达到了85.91%,比使用手工特征(如openSMILE)的模型高出约19%。多损失训练:在每个特征网络的末尾添加全连接层,为每个模态输出单独的损失函数,同时训练融合网络的总损失。

2025-08-08 10:52:39 1226

原创 PINN最近杀疯了,与KAN完美融合!!

应用拓展:将GINN-KAN应用于PINNs,使其能够提供对偏微分方程解的可解释性,同时在求解15个不同偏微分方程时,GINN-KAN增强的PINNs比传统PINNs表现更好,平均MSE降低了一个数量级以上。可解释性增强:通过结合KAN的可解释性和MLP的表达能力,HPKM-PINN能够更好地捕捉高频率和低频率特征,提供更全面的模型解释。可解释性增强:通过结合GINN和KAN的优点,GINN-KAN能够提供更透明的模型解释,解决了单一模型在某些函数类型上的局限性。

2025-08-07 11:50:01 1473

原创 顶会都在发:频域+时间序列上大分!

即时效应的处理:强调了在模型中考虑即时效应的重要性,并提出了一种扩展的MVAR模型,用于处理具有显著即时相关性的多变量时间序列。统一框架:提供了一个统一的框架,用于定义和解释频率域中的因果关系和耦合关系度量,包括Coh、PCoh、DC、PDC等,并探讨了这些度量与时间域概念之间的联系。频率域分析的优势:首次将频率域分析应用于从氧气时间序列估算GPP,提供了一种新的视角来处理复杂的水生生态系统中的氧气动态。在包含即时效应的模拟数据中,扩展模型的准确率达到了95%,而传统模型的准确率仅为60%。

2025-08-06 11:24:47 1098

原创 Mamba+UNet创新结合!起步就能发二区

Mamba-UNet在医学图像分割领域的应用前景广阔,特别适用于资源有限的环境,如农村地区或发展中国家,因为它们可以在较少标注数据的情况下实现高效的图像分割。双向Mamba的引入:首次将双向Mamba应用于语音增强任务,有效提升了模型对长序列语音信号的建模能力,相比传统Transformer方法,显著降低了计算复杂度。在LoveDA数据集上,MSD的引入使mIoU提升了0.74%。ImageNet预训练:通过加载ImageNet预训练的权重,初始化模型的编码器部分,提升模型在医学图像分割任务中的性能。

2025-08-05 10:37:21 1335

原创 荣登Nature!卡尔曼滤波+神经网络又火了

自动标注性能:自动生成的标注在多个数据集上验证,与手动标注相比,训练的网络在性能上相当,甚至在使用额外自动生成数据时表现更好(例如,在KITTI数据集上,使用自动生成标签的网络性能提升了62.3%)。性能提升:在Refer-KITTI数据集上,iKUN方法在HOTA指标上比之前的最佳方法TransRMOT提升了10.78%,在DetA指标上提升了3.17%,在IDF1指标上提升了7.65%。知识统一网络(iKUN):提出了一种可插入的知识统一网络,用于在无需重新训练的情况下与现成的多目标跟踪器进行交互。

2025-08-04 11:50:55 1027

原创 深度学习双热点结合创新!Mamba+遥感暴力涨点

例如,在北京数据集上,UV-Mamba的交并比(IoU)达到了73.3%,比之前的最佳模型提升了1.2个百分点;光谱-空间Mamba块:设计了包含两个基本Mamba块和一个特征增强模块的光谱-空间Mamba块,分别处理空间和光谱令牌,并通过中心区域信息增强特征。与之前的最佳模型相比,UV-Mamba的推理速度提高了6倍,参数数量减少了40倍。光谱-空间学习框架:首次将Mamba模型应用于高光谱图像分类,通过光谱-空间学习框架充分利用高光谱样本中的光谱-空间信息,显著提升了分类性能。

2025-08-01 11:14:57 1268

原创 Mamba+Transformer暴力涨点,就靠它了!

混合架构优势:首次在如此大规模的模型中验证了混合Transformer-Mamba架构的优势,Jamba-1.5-Large在长上下文任务中表现出色,有效上下文长度达到256K标记,是开放权重模型中最大的。性能提升:在多个基准测试中,Jamba-1.5模型在长上下文任务中表现出色,例如在RULER基准测试中,Jamba-1.5-Large的有效长度为256K,是唯一达到此长度的模型,显著优于其他模型。混合模型:提出了MaTrRec模型,结合了Mamba和Transformer的优势,用于序列推荐。

2025-07-31 11:42:22 1306

原创 图表示学习+Transformer简直是发文黑马!

泛化能力:Graphormer不仅在大规模数据集上表现出色,还在中等规模和小规模数据集上取得了优异的性能,如在OGBG-MolPCBA数据集上,Graphormer的AP值比之前的最佳方法高出2.5%。泛化能力:TREE在处理不同规模和类型的网络时表现出色,不仅在密集网络中表现出色,还在稀疏网络中保持高AUPRC值,证明了其在不同网络结构下的鲁棒性。解释性提升:通过模型梯度分析,揭示了突变数据在癌症基因识别中的关键作用,尤其是在泛癌分析中,突变数据对预测结果的平均影响最大(平均SHAP值最高)。

2025-07-30 11:42:08 956

原创 多尺度特征融合+Transformer 发高区易如反掌!

多尺度特征融合与Transformer的结合是当前计算机视觉领域的一个重要研究方向,旨在通过结合Transformer的自注意力机制和多尺度特征融合技术,提升模型对图像全局语义信息和局部细节信息的捕捉能力,从而提高模型的性能和泛化能力。Transformer编码器的应用:利用Transformer编码器进行特征融合,能够动态分配不同尺度信息的权重,进一步提升了模型的性能。多尺度特征融合:通过结合CNN和Transformer,MFFSP能够同时捕捉滑坡的局部和全局特征,显著提高了滑坡检测的准确性。

2025-07-29 10:57:17 1696

原创 GNN+Transformer完美融合!准确率高达99.47%

图神经网络(GNN)是一种专门用于处理图结构数据的深度学习模型,其核心在于消息传递机制,通过迭代更新节点特征,逐层传递邻近节点之间的信息,从而能够直接处理图数据中节点和边之间的复杂关系。而Transformer是一种基于注意力机制的深度学习模型,最初用于自然语言处理任务,它通过多头自注意力机制捕捉序列中所有元素之间的关系,能够高效处理序列数据,并建模长距离依赖。性能提升:在多个分子性质预测任务上,GNN-SKAN和GNN-SKAN+的准确率和泛化能力显著提升,超越或匹配了现有最先进模型。

2025-07-28 15:07:32 717

原创 小目标检测又火了!13个idea发顶会,你上你也行

性能提升:在MS COCO数据集上,Faster R-CNN + ResNet-50 FPN基线AP从36.7提升至38.6(+1.9),小目标APs从21.1提升至24.4(+3.3)。CBAM注意力:进一步将mAP@.5提升至36.95,mAP@[.5:.95]提升至20.85,总参数量仅8.39 M,相比Transformer方案减少42%。FFNB双新尺度:B1-FFNB与B2-FFNB分别提升mAP0.5 2.2%与4.3%,最终融合后mAP0.5达47.0,较YOLOv8s提升7.7%。

2025-07-25 11:32:40 1038

原创 暴力涨点!通道注意力UNet起步就能发二区

通道注意力UNet是一种结合了通道注意力机制的UNet网络架构,旨在通过动态调整特征通道的重要性来增强模型对关键特征的感知能力,从而提升图像分割的性能。性能提升:在ISIC-2018数据集上,SF-UNet在DSC和IOU指标上分别达到了88.46%和81.34%,相比之前的最佳模型TransUNet(DSC 88.27%,IOU 81.27%),性能提升显著。3D注意力模块:通过引入3D注意力模块,显著提升了脑肿瘤分割的准确性,特别是在肿瘤核心区域的预测上,Dice分数提升了约10%。

2025-07-24 11:26:39 626

原创 2025顶会超火方向:小波卷积发论文稳了!

性能提升:在2017年PhysioNet/CINC挑战赛提供的ECG数据集上,该方法取得了87.1%的准确率和86.46%的F1分数,相比现有分类方法,准确率提升了约10%,F1分数提升了约12%。改进的小波阈值去噪:提出了一种新的小波阈值去噪方法,能够有效去除sEMG信号中的噪声并保持信号细节,信噪比(SNR)提升了约10dB,均方根误差(RMSE)降低了约20%。PCA和DWT结合:提出了一种新的PCA和DWT结合的预处理方法,能够有效降低数据维度并提取有用特征,提升了特征提取的效率和准确性。

2025-07-23 11:22:34 866

原创 二区及以上:边界注意力依然是香饽饽!

性能提升:在Kvasir-SEG数据集上,mDice达到94.82%,mIoU达到90.36%,比之前最佳模型分别提升了3.42%和3.56%。性能提升:在Kvasir-SEG数据集上,mDice达到91.1%,mIoU达到85.9%,比之前最佳模型分别提升了1.3%和1.6%。性能提升:在CrackTree260数据集上,ODS达到0.971,OIS达到0.974,AP达到0.977,比之前最佳模型分别提升了4.1%、3.3%和2.2%。

2025-07-23 11:21:08 874

原创 频域结合PINN登上Nature,预测误差爆降100倍!

稀疏数据的有效处理:该方法能够在非常稀疏的记录下生成聚焦的源图像,即使在只有20个随机接收器的情况下,也能准确成像多源事件,展现了在被动监测场景中的强大潜力。网格质量提升:在多个二维和三维几何形状的实验中,3DMeshNet生成的网格质量优于现有方法,最小内角和最大内角的指标表现更好,表明网格的正交性更高。在实际的水力压裂监测数据中,该方法正确成像源位置,且伪影更少。硬约束的引入:首次在微地震源成像中引入硬约束,避免了在训练过程中平衡数据损失和PDE损失的复杂性,显著提高了训练的稳定性和准确性。

2025-07-21 15:04:38 1507

原创 登上Nature子刊!时间序列可解释性颠覆传统

Kolmogorov-Arnold表示定理:首次将Kolmogorov-Arnold表示定理应用于神经网络设计,显著提高了模型的可解释性和预测能力(在金融时间序列数据集上,T-KAN和MT-KAN的MSE分别降低了69.1%和63.7%)。稀疏混合学习核(SMoLK):提出了一种新的医学时间序列处理架构SMoLK,通过稀疏核函数学习,显著减少了模型参数数量(在PPG信号去噪任务中,参数数量减少了98.6%,同时保持了94%的DICE分数)。

2025-07-18 10:55:57 1217

原创 超强创新点!Mamba+YOLO轻松超越YOLO8

性能提升:在RAF-DB数据集上,FER-YOLO-Mamba相较于YOLOvX,平均精度(mAP)提升1.91%,达到80.31%。性能提升:在LVIS数据集上,Mamba-YOLO-World-S相较于YOLO-World-S,平均精度(AP)提升1.5%,小、中、大模型的平均精度分别提升1.4%、3.2%和1.8%。性能提升:在MSCOCO数据集上,Mamba YOLO-Tiny版本相较于YOLOv8-S,参数减少48%,FLOPs减少53%,推理延迟降低0.4ms,平均精度(mAP)提升7.5%。

2025-07-17 11:43:08 1150

原创 我愿称之无敌!可解释GNN最新暴力涨点方案

性能提升:在合成数据集上,CXGNN在精确识别真实解释方面的表现显著优于现有方法,例如在BA+House数据集上,CXGNN的精确匹配准确率达到了100%。反事实不变性:通过反事实实现,CIDER能够直接预测因果子图和虚假子图的分布,从而量化每个子图对图标签的贡献。减少混杂因素影响:通过扩散过程和反事实不变性,CIDER能够减少未观测混杂因素的影响,提升了因果推断的可靠性。因果解释:首次提出了一种基于反事实不变性和扩散过程的因果子图推断框架,能够同时提供因果子图和可靠的因果链接。

2025-07-16 11:31:36 782

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除