- 博客(27)
- 收藏
- 关注
原创 二区 idea 来了!多尺度注意力,时间序列预测即插即用创新点
今天要给大家分享一个极具潜力的创新点 —— 多尺度注意力,凭借其显著的涨点效果与强大的启发性,近来在学术界热度持续飙升。在目标检测领域,多尺度特征融合技术发挥着关键作用。将浅层网络细腻的细节特征,与深层网络富含语义的特征相结合,让小目标和遮挡目标无所遁形,显著提升检测性能。医学影像分割领域亦是如此,借助多尺度特征融合,能够精准捕捉病灶区域形态的多样性以及边界的模糊性,极大提高分割精度,为医疗诊断提供有力支持。不过,当下这一领域仍存在诸多挑战。
2025-04-17 12:03:07
400
原创 燃爆!强化学习 + 多目标优化,驱动 AI 决策升级,港科大成果亮瞎眼,论文来袭!
首次将多目标强化学习中目标动态变化的场景形式化为持续多目标强化学习(CMORL)问题,突破了传统多目标强化学习假设目标固定的局限,为研究目标不断变化的实际场景提供了理论基础。
2025-04-16 12:30:56
822
原创 世界生成新攻略,李飞飞团队倾囊相授!
世界生成模型又火啦!李飞飞吴佳俊团队提出的 WorldScore 全面评测基准超厉害,涵盖三大类评估指标,数据集有3000个测试样例,动静场景都能测,还把3D、4D场景生成和视频生成模型评估统一起来。如今,人工智能与计算机图形学深度融合,让我们创造、模拟世界的精度和效率大幅提升。这不仅能打造超逼真的虚拟游戏、沉浸式影视场景,在建筑设计、城市规划、工业模拟等领域也作用巨大,能提前预见方案效果,节省成本和时间。但传统评估基准像VBench有局限,主要聚焦文本到视频任务,难以评估先进的3D、4D场景生成方法。
2025-04-15 11:54:08
876
原创 你还想用KAN发顶刊?那就从这篇文章开始!
在AI研究的蓬勃发展中Kolmogorov-Arnold网络(KAN)正崭露头角。自诞生起,其热度持续攀升,成果斐然。例如U-KAN在医学图像的分割与生成中,实现高准确率与低计算成本的出色平衡。在学术舞台上,KAN表现夺目。ICASSP 2025会议上诸多创新成果吸睛,Nature子刊、IEEE等也发表了CKANs模型、PIKANs架构等佳作,助力KAN不断进阶。当下,KAN创新聚焦模型优化与跨领域拓展,已成功涉足金融、生物等领域。为助力大家深入钻研,我们,从不同角度剖析KAN,为你的研究提供思路。
2025-04-14 17:56:28
601
原创 Transformer+KalmanFilter:时序预测中的新晋顶流!
Transformer 与卡尔曼滤波的融合,本质是经典控制理论与深度学习在时序处理中的跨范式协作。前者通过贝叶斯递归实现噪声鲁棒的状态估计,后者通过注意力机制捕捉复杂非线性依赖,两者的结合不仅提升了时序预测精度,更展示了 “模型驱动” 与 “数据驱动” 方法的协同潜力。未来,随着边缘计算与实时处理需求的增长,这种轻量高效的融合方案将在工业监控、智能设备等领域展现更大价值。代码复现提示:建议优先调整卡尔曼滤波的 Q 和 R 参数(如 Q=1e-5~1e-3,R=0.05~0.2),观察滤波效果;
2025-04-10 10:58:10
801
原创 绝了!可解释多模态融合创新成果简直逆天,一路开挂!
提出可解释多模态情感识别任务,要求模型不仅预测情感标签,还需提供支持预测的多模态证据和推理过程,以提高标签可靠性。
2025-04-09 11:56:29
886
原创 ICLR 2025 最大黑马:Celcomen 用机器学习与因果推断,改写因果可识别性格局!
当下,机器学习与因果推断的跨界融合,在学术与工业界掀起热潮,强势重塑诸多行业决策逻辑。医疗场景里,因果推断助力精准锁定药物靶点与副作用机制,个性化治疗方案得以快速发展。金融风控中,反事实分析技术重构信用评分模型,风险预测更精准。自动驾驶凭借因果推理,打破传统感知算法局限,复杂路况决策更稳健。微软亚洲研究院的因果增强推荐系统,引入因果推断使用户行为建模误差直降23%,其实用价值不言而喻。技术正朝着高效计算架构、跨模态因果迁移、轻量化推断引擎这三大方向迈进。
2025-04-08 11:13:42
884
原创 DeepSeek 新研究,会让 AI 奖励模型彻底颠覆吗?
而DeepSeek与清华大学的研究人员另辟蹊径,在最新提交的论文中,探索奖励模型(RM)的多元方法时发现,逐点生成奖励模型(GRM)能够统一对单个、成对及多个响应的评分,以纯语言表示巧妙化解难题。这篇论文提出 KS-LSTM 混合模型,用于填补有效波高数据中的短期和长期缺失值。:KS-LSTM在不同缺失率(10%-50%)和不同类型数据条件下都表现稳定,在高缺失率场景下也能保持较低误差,如在浮标ID4数据缺失率达50%时,RMSE、MSE和MAE仍处于较低水平,适合处理复杂含缺失值的时间序列预测任务。
2025-04-07 12:29:39
921
原创 别不信!Transformer 过时实锤,MIT 的 LNN 液体神经网络要霸屏了!
传统神经网络在应对复杂问题时暴露出诸多局限,尤其是在处理时间序列数据和适应动态环境方面表现欠佳。液态神经网络应运而生,它借鉴了生物神经系统中神经元之间的动态连接和信息传递方式,展现出更强的灵活性和适应性。将仿生学与神经网络相结合,或许能为深度学习研究开辟全新的思路。,旨在为大家提供更全面的模型创新灵感。也真心希望能帮到大家。
2025-04-03 12:16:06
665
原创 可解释 AI 大爆发!医疗与社交领域 SOTA 全被 “屠榜”!
最近,深度学习可解释性领域又有新突破!从药物研发到疾病诊断,再到社交媒体情感分析,可解释的深度学习模型正逐渐改变着我们的生活。在人工智能领域,深度学习可解释性一直是备受关注的研究热点。诸多研究致力于构建融合可解释 AI 技术与深度学习模型的全新框架,打破传统黑箱模型的壁垒,将其转化为透明可理解的白箱模型,极大提升模型的透明度,助力人们精准洞察模型决策逻辑。在信息处理与分析维度,创新模型架构不断涌现,将先进的注意力机制与图卷积网络等深度融合,有效捕捉复杂关系,攻克以往模型的难题。
2025-04-01 15:05:57
772
原创 清华大学严选!Mamba+注意力机制刷爆SOTA,推理速度狂飙300%!
Mamba凭借状态空间模型(SSM)的线性计算复杂度,在长序列建模领域具有不输Transformer的统治地位,而注意力机制的全局依赖感知进一步巩固了这种优势。其创新性硬件感知扫描策略(HASS)将原始MambaIR的四向扫描压缩至单次遍历,通过动态门控注意力重加权机制,在保持97.3%像素采样完整性的同时,使DIV2K数据集上的计算能耗直降58%。Mamba-注意力混合架构的技术突破呈现出多维度辐射。,供同学们学习与参考,欢迎自取~
2025-03-31 11:29:43
733
原创 可解释性新突破!Transformer+因果推理又在上大分
Transformer 在序列建模领域构建了黄金标准,但其黑箱特性导致的因果混淆问题使得其可解释性和可靠性较差。而因果推理通过结构因果模型(SCM)与反事实推理框架,能精准识别变量间的干预效应(ITE)与混杂因子,为决策系统提供了可验证的解释。当前,许多研究致力于结合二者的互补特性,如 CausaFormer利用因果图约束掩码策略,通过因果结构引导的预训练在自动驾驶轨迹预测中消除70%的伪相关性误差。本文整理了【13篇】最新前沿研究,供大家学习与参考,同学们有需要可以自取~
2025-03-28 10:47:43
967
原创 多模态 + Mamba,这对 “CP” 直接锁死啦!
作为序列建模领域的革命性技术,Mamba以线性复杂度的长距离依赖建模能力,与多模态技术的跨维度信息整合优势形成化学反应,推动模型在准确性、鲁棒性和泛化性上实现跨越式突破。从医疗影像的多模态诊断到工业质检的跨模态缺陷检测,从智慧城市的多源数据融合到元宇宙的沉浸式交互,技术应用版图持续裂变。学术领域更是成果井喷,如ICASSP 2025最新成果DepMamba,在多模态视频理解任务中实现计算效率与准确率的双重突破。
2025-03-27 10:37:51
1052
原创 多模态融合“开挂”:可解释性让 A| 瞬间“智商爆表”!
如今,现有关于多模态融合的研究多集中在模型性能的提升上,对可解释性的探索相对较少。然而,可解释性不仅是提升用户信任的关键,更是优化模型决策的重要途径,尤其在医疗、金融等高敏感领域,透明AI的需求日益迫切。传统多模态融合模型往往被视为“黑箱”,尽管性能优异,但决策过程缺乏透明度。例如,知识图谱与强化学习的结合,能够通过分层决策生成可解释的推理路径,同时适应复杂的用户行为模式。在医疗领域,可解释的多模态融合模型展现出巨大潜力。
2025-03-26 10:43:58
890
原创 多模态+小样本杀疯了!CLIP+Transformer双剑合璧,再登顶会
该文献提出了一种多模态原型增强网络(MORN),用于少样本动作识别。在视觉流部分,MORN使用CLIP视觉编码器对视频帧进行编码,获取视频特征,然后通过TRX模块计算得到视觉原型。对于文本流,MORN利用冻结的CLIP文本编码器对标签文本进行编码,获取文本特征,并通过语义增强模块和膨胀操作得到文本原型。为了融合两种模态的信息,MORN设计了多模态原型增强模块(MPE),将视觉原型和文本原型通过加权平均等方法进行结合,形成更具代表性的多模态原型。
2025-03-25 12:11:42
779
原创 多模态预训练 “杀疯了”,顶会都被它 “收入囊中”!
【多模态预训练】通过构建跨模态对比学习目标函数,在异构数据空间建立可迁移的联合表征体系。其技术内核在于学习不同模态数据之间的关联性和互补信息,通过对抗性训练或知识蒸馏实现跨模态语义对齐,从而提升模型在理解、识别、检索或生成等方面的能力。当前多模态预训练研究主要聚焦三大维度:1)非对称模态交互;2)增量式预训练;3)稀疏化计算。此类技术在多种应用中取得显著的成功,例如视觉问答(VQA)、自然语言视觉推理(NLVR)和视觉语言检索(VLR)等。
2025-03-24 16:05:50
918
原创 GCN 与 Transformer 共筑新范式,图模型训练效率翻番,准确率登顶!!
在深度学习领域,【图卷积网络(GCN)】和【Transformer】都是极具影响力的存在。图卷积网络(GCN)借助谱域卷积算子,巧妙地实现了节点特征的拓扑传播,能够精准捕捉节点间的局部同构性,为节点分类、图分类以及链接预测等众多关键任务,搭建起了精确的图表示学习框架。而Transformer则依靠其独特的多头自注意力机制,在机器翻译、时序预测等需要处理全局依赖关系的场景中,展现出无可比拟的强大统治力。如今,科研人员大胆创新,将【GCN与Transformer】进行架构融合,成功开创了图神经网络的全新范式。
2025-03-21 12:27:49
1082
原创 CNN+LSTM又火了!性能突破,轻松拿下顶会!
卷积神经网络(CNN)能够逐级抽象局部纹理、边缘等空间模式,在图像特征提取领域构建了黄金标准。而长短期记忆网络(LSTM)拥有独特的门控机制,其动态记忆更新特性可精准捕获多尺度时间依赖,在金融时序预测、语音识别等序列建模任务中脱颖而出。【CNN-LSTM】混合架构通过【时空特征耦合】实现建模能力的跃迁。同时,近期许多研究引入注意力机制动态调节CNN-LSTM的贡献权重,如Transformer引导的C-LSTM-Attention模型,高效提升了模型鲁棒性与可解释性。
2025-03-19 10:46:26
574
原创 多模态融合+迁移学习,12 篇论文狂刷 SOTA 新高度!
如何攻克复杂数据处理难题,构建更强大、适应性更强的智能模型?不妨着眼于前沿的多模态融合与迁移学习技术。多模态融合将图像、文本等多元数据信息汇聚整合,为模型训练打造全方位的数据基石;迁移学习则依托预训练模型,赋予新模型在小数据环境下依然卓越的性能表现。二者强强联合,例如,运用多模态迁移学习的医学图像分类模型,借助PubMedCLIP创新性地融合图像与文本模态,在小数据场景下实现了高精度分类,为医学图像分析开辟新路径。为助力科研工作者在该领域取得突破,为大家的研究提供灵感和思路。
2025-03-18 15:02:00
594
原创 狂发顶会 神作频出:ResNet 结合 Transformer,炸了!又火了!
在AI研究领域,【】备受瞩目。ResNet通过深层结构及残差连接,在挖掘图像局部特征方面表现出色;Transformer的自注意力机制能有效捕捉长距离依赖,赋予模型全局感知能力。二者的结合成为当下研究热点。例如,创新的Dual Spike Self - Attention(DSSA)机制,
2025-03-17 12:16:38
1073
原创 无监督学习再掀风暴:聚类+Transformer刷爆SOTA!
在深度学习的演进历程中,Transformer凭借其全局自注意力机制,在自然语言处理领域构建了序列建模的新范式。而传统聚类算法作为无监督学习的核心方法,始终在特征空间解耦与数据分布建模中展现独特价值。二者结合的关键在于将Transformer的上下文感知能力与聚类的特征解耦特性进行有机整合。随着跨模态学习需求的增长,聚类+Transformer在知识蒸馏、联邦学习等前沿领域展现出巨大潜力,应用前景则覆盖从工业质检到智慧医疗的多元场景。,同学们有需要可以自取~
2025-03-14 10:49:12
1314
原创 小波变换+CNN,如此逆天 准确率直逼100%!
小波变换,作为非平稳信号处理的得力工具,凭借时频局部化与多分辨率分析特性,打破傅里叶变换全局频域局限,能精准提取信号特征。卷积神经网络(CNN)则在计算机视觉领域大放异彩,其层次化特征提取和端到端学习能力备受瞩目。当下,研究者把目光投向的深度融合。通过构建基于小波基函数的可学习卷积核,成功将数学理论与深度学习框架结合。。它为建立具物理意义的深度学习模型开拓新径,在高频细节保留、边缘特征增强等任务中独具价值,为新一代可解释性人工智能系统筑牢理论根基。,~也欢迎分享给身边的朋友!
2025-03-13 16:04:57
918
原创 杀疯了!Mamba+Transformer 组合在 CVPR-2025 疯狂收割顶会席位!!
微观架构上,重新设计Mamba模块,将因果卷积替换为常规卷积,新增无SSM的对称分支,两者输出连接后投影,同时采用通用多头自注意力机制,以此提升模型在视觉任务中的性能。:融合Mamba与Transformer,Mamba降低长文本处理复杂度至O(n),减少缓存占用,Transformer负责上下文理解,构建出兼具高效与强理解能力的混合架构,且在超大型MoE模型中无损应用Mamba。:用规则评分、代码沙箱反馈及生成式奖励,保障输出质量,提升特定领域准确性,优化问答与创意任务表现。
2025-03-12 14:09:32
658
原创 左手握Nature,右手揽顶会,小波变换+Transformer 携手开启科研新王朝!!
在深度学习领域,Transformer架构一直是研究的焦点,如今又有新的突破出现!当经典的相遇,会碰撞出怎样的火花呢?与过往一些仅在Transformer内部结构微调的研究不同,有学者将小波变换融入其中,带来了令人惊喜的成果。像论文1提出的复小波感知Transformer算子,当前,Transformer的改进方向研究热度持续攀升,将小波变换与之融合的相关探索更是备受关注。若你正投身相关领域研究,这篇文章可不容错过。
2025-03-11 10:49:55
723
原创 燃起来了呀!LSTM借3大创新方向 “复活”,彻底颠覆时序认知!
提出以来,凭借其独特的门控机制在序列建模任务中展现出卓越性能,在自然语言处理、语音识别、机器翻译等时序依赖型任务中建立了广泛应用。然而,由于在并行计算效率与长程依赖建模方面的局限性日渐凸显,LSTM 逐渐落后于兴起的Transformer 架构。近期,xLSTM 架构的提出,重新激活了对这一经典模型的研究。xLSTM 不仅保留了传统 LSTM 的时序建模优势,且困惑度指标较 Transformer 和 Mamba 降低了12-18%,通过以下创新显著提升性能:1)可扩展的记忆单元设计;
2025-03-10 16:13:49
716
原创 必学干货!特征提取搭配KAN,让深度学习成绩一飞冲天!
深度学习的赛道上,新突破不断涌现。今天,为大家带来超有潜力的【KAN+特征提取】技术。在构建深度学习模型时,特征提取的精准度,直接决定模型表现。【KAN+特征提取】另辟蹊径,引入KAN,其自适应激活函数可动态调整数据特性,让模型对关键特征的捕捉更精准,大幅提升特征处理能力,模型性能自然水涨船高。已有成果证实KAN+特征提取效果显著。为帮大家节省查阅资料的时间,我们精心挑选了10篇最新论文。这些论文详细展示了该技术的创新思路与实际应用效果。
2025-03-07 14:53:46
521
原创 惊呆了!LSTM 携手卡尔曼滤波,称霸了论文界!
在科技飞速发展的当下,【LSTM与卡尔曼滤波】相结合的技术正崭露头角,成为极具潜力的新兴方向。LSTM作为深度学习的中流砥柱,在时序建模上表现卓越,能精准捕捉时间序列中的复杂规律;卡尔曼滤波作为经典的传统滤波算法,在动态状态估计方面优势显著。该技术处于深度学习与传统滤波算法的交叉地带,目前正处于快速上升阶段。在自动驾驶、无人机跟踪、传感器融合等前沿领域,其应用需求极为旺盛。对于科研人员而言,这一方向论文发表潜力巨大,且可紧密结合实际场景提出创新方案。
2025-03-06 17:49:44
538
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人