自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(100)
  • 收藏
  • 关注

原创 多尺度特征融合太香了!优秀成果及开源代码已扒!

近年来,多尺度特征融合已成为计算机视觉领域的研究热点,并在图像分类、目标检测、语义分割等任务中取得了显著成果。性能提升:在 NYU Depth V2 数据集上,该网络达到了最先进的性能,δ1、δ2、δ3 等指标均优于其他方法,例如与 Adabins 相比,δ1 提升了 0.012,AbsRel 降低了 0.005,RMSE 降低了 0.020。多尺度特征嵌入:将编码器输出的多尺度特征进行嵌入,将特征图划分为不同大小的 2D 块,保持通道维度不变,并将这些块映射到相同区域的编码器特征,以构建多尺度特征嵌入。

2025-04-03 11:47:04 507

原创 我愿称之无敌!多尺度卷积+Attention最新暴力涨点方案!

多尺度特征为注意力机制提供了更丰富的信息基础,而注意力机制则可以动态地调整多尺度特征的权重,实现更精细的特征融合。多尺度卷积:通过引入多尺度卷积核,扩大了卷积的感受野,使模型能够提取更丰富的特征信息,从而提高了路面裂缝分割的准确性。多尺度扩张卷积(MDC):通过不同扩张率的扩张卷积路径,提取不同时间尺度的特征,避免了传统多尺度CNN结构在提取大时间尺度特征时参数过多的问题。多尺度卷积:在深度可分离卷积层中用1×1、3×3和5×5的多尺度卷积核替代传统的3×3卷积核,扩大了卷积的感受野,丰富了特征通道信息。

2025-04-02 11:28:37 862

原创 CNN+Transformer依然是香饽饽!你上你也行!

性能提升:在FSD50K、AudioSet和ESC-50数据集上,通过CMKD训练的学生模型性能优于教师模型,例如KD-CNN模型的mAP从56.2提升到58.2,KD-AST模型的mAP从57.6提升到61.7。通用性:在COCO目标检测和Pascal VOC语义分割任务中,EdgeNeXt模型也取得了更高的mAP和mIOU,同时具有更少的MAdds和相当的参数量,证明了其在不同视觉任务中的通用性和优越性。计算效率:CMKD框架不仅提升了模型的分类性能,还通过避免复杂的特征分解,提高了算法的计算效率。

2025-04-01 11:27:15 625

原创 多模态情感分析太香了!新成果及开源代码已扒!

性能提升:在CMU-MOSI和CMU-MOSEI数据集上,MAG-BERT和MAG-XLNet的性能超过了仅使用语言模态的BERT和XLNet,以及现有的多模态情感分析模型。情感词位置检测:通过BERT模型预测情感词位置,解决了ASR模型可能将情感词识别为中性词的问题,提高了情感词检测的准确性。统一的多模态情感分析流程:首次提供了一个统一的多模态情感分析框架,确保了不同模态特征和融合方法之间的公平比较。动态细化情感词嵌入:通过多模态情感线索动态调整情感词嵌入,减少了ASR错误对情感分析性能的影响。

2025-03-31 13:40:00 914

原创 特征匹配太香了!新成果及开源代码已扒!

性能提升:在ShapeNet数据集上,与现有方法相比,Chamfer距离降低了约20%,F-score提升了约3.6%,在3D场景数据集上,Chamfer距离降低了约15%,Normal Consistency提升了约1.5%。性能提升:在HPatches数据集上,与现有方法相比,平均匹配精度提升了约5%-10%,在MegaDepth数据集上,AUC@10°提升了约6%-8%,在ScanNet数据集上,AUC@10°提升了约2%-3%。

2025-03-28 11:57:25 658

原创 多模态融合太香了!新成果及开源代码已扒!

多模态融合,即综合运用多种模态数据(如文本、图像、音频、视频等)来实现更全面、更精准的信息感知与理解,它突破了单一模态数据在信息表达上的局限性,为复杂场景下的智能决策、人机交互以及跨领域应用提供了全新的思路与方法。多模态循环融合(MCF):提出了一种新的多模态融合方法,通过将特征向量重塑为循环矩阵,并定义向量与矩阵之间的两种交互操作,充分探索不同模态特征之间的交互。突破双语依赖:首次提出通用视觉表征方法,突破了多模态机器翻译(MMT)中对双语(或多语)平行数据手动图像注释的依赖,显著降低了数据准备的难度。

2025-03-27 12:01:45 398

原创 特征提取太香了!新成果及开源代码已扒!

数据规模和域的影响:通过对比不同数据规模和域的模型,发现自监督学习在大规模、多样化数据上训练的模型能够显著减少有害标签关联和地理多样性差异,例如在地理多样性指标上,自监督学习模型在低收入和非西方地区的性能提升最为显著。少样本微调的易行性:通过对比单样本和全数据训练的分类器权重,发现即使只有一个样本,也能学习到与全数据训练相似的权重,表明少样本微调在预训练特征库上非常有效,这为少样本学习的成功提供了理论支持。局部-全局多模态对齐模块:通过局部和全局语义对齐,将视觉特征和文本特征对齐到共享的潜在空间。

2025-03-26 11:09:49 661

原创 超好中小论文的idea:CNN+LSTM+Attenttion

CNN-LSTM-Attention(CLA)模型:提出一种结合卷积神经网络(CNN)、长短期记忆网络(LSTM)和注意力机制的深度学习模型,用于预测根区土壤湿度。预测精度提升:CLA模型在80-100cm深度的土壤湿度预测中,R²值接近0.9298,RMSE比LSTM和CNN-LSTM模型分别降低了49%和57%。ACLMC模型:提出一种基于注意力机制的CNN-LSTM模型(ACLMC),结合不同频率和货币的相关性,支持多货币同时预测,降低投资风险。

2025-03-25 15:08:08 875

原创 我愿称之无敌!FD-PINN最新暴力涨点方案!

频域PINNs(Frequency Domain PINNs)通过将问题转换到频域,利用傅里叶变换或其它频域表示方法,能够有效缓解这些问题,显著提升模型的训练效率和求解精度。谱PINN(Spectral PINN):在频谱空间(傅里叶空间)中直接学习小尺度动力学的方程,避免了传统PINNs在小尺度问题中的“谱偏”问题。自适应边界函数:提出了一种自适应参数优化的边界函数,能够动态调整边界函数的锐度,以更好地匹配真实解,显著提高了高频问题的求解精度。

2025-03-24 15:48:18 457

原创 荣登Nature!多模态数据融合新成果再突破

临床决策支持:通过决策曲线分析,MRP模型能够识别出在新辅助治疗前/中阶段的非pCR患者,以及在新辅助治疗后阶段的pCR患者,从而帮助调整治疗方案,避免不必要的手术,为临床决策提供了有力支持。数据缺失处理:MRP系统设计考虑了临床实际中数据缺失的情况,通过跨模态知识预测器和时间信息嵌入,确保了模型在面对不完整数据时仍能保持较高的预测性能,增强了模型的实用性和适应性。稀疏CCA在COVID-19中的应用:展示了如何通过稀疏CCA分析揭示COVID-19患者的不同临床表型,为理解疾病的复杂性提供了新的视角。

2025-03-21 11:22:25 454

原创 因果推断+机器学习依然是香饽饽!你发你也行!

为此,研究者提出了多种因果推断框架,如潜在结果模型(Potential Outcomes Framework)、结构因果模型(Structural Causal Models, SCMs)以及基于do-演算的因果图方法(Causal Graphical Models),这些方法为因果关系的建模和识别提供了坚实的数学基础。非平稳时间序列的因果发现:首次提出了一种能够处理非平稳时间序列的因果发现算法,特别是在因果机制具有周期性变化的情况下,相比传统方法具有更强的适用性。

2025-03-19 11:18:36 795

原创 小波变换+CNN 卷积一生,不弱于人!

小波变换作为一种强大的时频分析工具,近年来在信号处理领域取得了显著成果。1D-CNN与LSTM分类:利用1D卷积神经网络(CNN)提取局部特征,并结合长短期记忆网络(LSTM)提取长期依赖关系,最终通过SoftMax分类器进行情感分类。改进的小波阈值法:提出了一种新的小波阈值去噪方法,有效提高了sEMG信号的信噪比,信噪比(SNR)达到20 dB以上,均方根误差(RMSE)降低至0.05以下。小波特征优势:利用小波变换的多分辨率特性,有效捕捉语音信号中的情感信息,显著优于传统的MFCC和梅尔频谱图特征。

2025-03-18 10:51:34 888

原创 多变量不规则时序预测能发顶会?包的!

跨模态对齐:通过文本原型和PaP技术,有效对齐时间序列和自然语言模态,提升模型对时间序列的理解能力(在长序列预测任务中,性能提升超过25%)。TSA层:通过两阶段注意力机制分别处理时间和维度依赖,显著提升模型对长序列的建模能力(在长序列预测任务中,性能提升超过15%)。度预测:利用HED结构,结合不同尺度的信息进行预测,提升模型在不同预测长度下的性能(在不同预测长度下,性能提升超过12%)。鲁棒性提升:在传感器缺失场景下表现出色,显著提升模型的鲁棒性(在传感器缺失50%的场景中,性能提升超过25%)。

2025-03-17 14:57:59 859

原创 注意力机制结合UNet,速度飙升98.82%!

Transformer 与 U-Net 结合:将 Transformer 的全局自注意力机制与 U-Net 的局部细节提取能力相结合,显著提升了分割性能(例如在 Synapse 数据集上,平均 DSC 提升至 77.48%,比传统 U-Net 提升了约 3.8%)。或在解码器阶段使用自注意力机制以建模像素间的全局关系。多尺度特征利用:通过多尺度特征图的门控操作,模型在不同数据集上均表现出良好的泛化能力,Dice 分数在 CT-82 数据集上达到了 83.1%,相比传统 U-Net 提升了约 1.1%。

2025-03-14 11:44:02 540

原创 Nature大杀器!PINN物理信息神经网络

小波激活函数的应用:使用小波作为激活函数,相比传统激活函数(如tanh),在求解Blasius方程时,相对L2误差降低了约10%(例如,使用墨西哥帽小波时,f的相对L2误差为0.00685,f′的相对L2误差为0.00659)。物理信息的嵌入:将物理定律嵌入到神经网络的训练过程中,使得模型不仅能够拟合数据,还能发现数据背后的物理规律,提高了模型的可解释性和预测能力。不确定性量化驱动的主动学习(UQ-AL):通过主动学习技术,根据模型的预测不确定性动态选择新的训练数据,提高模型的预测能力和泛化能力。

2025-03-13 13:49:09 521

原创 Attention简直杀疯了!完美融合强化学习

动态注意力机制:首次引入动态注意力机制,使评论者能够根据当前智能体的状态和任务动态选择相关信息,显著提升了学习效率和可扩展性(例如在16个智能体的环境中,相比MADDPG,性能提升超过50%)。动态上下文信念(DCB):通过动态更新上下文信念,模型能够更好地捕捉目标对象与上下文对象之间的关系,显著提升了搜索效率(例如在Scanpath Ratio指标上,相比基线模型提升了20%以上)。注意力机制:提出了一种注意力机制,使评论者能够动态选择与当前智能体相关的其他智能体的信息,从而提高学习效率和可扩展性。

2025-03-11 11:07:16 687

原创 Attention太强了!结合傅里叶变换暴力涨点!

语义信息丰富度:在ARCH基准测试中,WavTokenizer在多个语音、音乐和音频领域的分类任务中超越了现有的编解码器模型,例如在AM数据集上,WavTokenizer的分类准确率比DAC高出6%。性能提升:在少样本分割任务中,AFNO的准确率比自注意力机制更高,例如在ADE-Cars数据集上,AFNO的mIoU比自注意力机制高出2%。性能提升:在GLUE基准测试中,FNet达到了BERT-Base的92%和BERT-Large的97%的准确率,同时保持了显著的效率优势。

2025-03-10 11:40:38 481

原创 卡尔曼滤波+LSTM 双热点结合,王炸创新!

性能提升:在多个飞行轨迹数据集上的实验表明,该方法的平均轨迹水平误差(THE)和垂直误差(TVE)分别降低了约30%和40%,显著优于传统方法。基于梯度的优化:提出了一种基于梯度的优化方法,结合Cholesky参数化技术,用于优化卡尔曼滤波器(KF)的参数,以最小化状态估计误差。优化优于噪声估计:在多个实验中,优化后的KF(OKF)的均方误差(MSE)显著低于传统噪声估计方法,平均降低约20%。直接优化目标:直接优化KF的预测误差,而不是依赖于噪声估计,从而提高了KF在模型假设违反情况下的鲁棒性和准确性。

2025-03-07 10:46:32 805

原创 先天发文圣体!CNN结合LSTM这波操作太秀了!

混合模型的提出:将注意力机制的CNN和LSTM结合,并引入XGBoost进行微调,形成了一个混合模型,该模型在股票预测任务中表现优于单一的CNN、LSTM或XGBoost模型,均方根误差(RMSE)降低了约20%。混合模型的提出:将CNN和LSTM结合,形成了一个混合模型,该模型在预测精度上优于单一的CNN或LSTM模型,平均绝对百分比误差(MAPE)仅为0.0148。模型性能的提升:通过优化模型结构和超参数调整,模型在股票预测任务中的性能得到了显著提升,R2分数达到了0.88342。

2025-03-05 11:20:59 758

原创 交叉注意力结合特征融合,这个创新思路必将爆发!

性能提升:在Flickr30K数据集上,图像到文本检索的R@1、R@5、R@10指标分别达到74.2%、92.8%、96.4%,相比之前的最佳方法(如SCAN的67.4%、90.3%、95.8%)有显著提升;性能提升:在DEAP数据集上,该方法在情绪效价(valence)和唤起度(arousal)的识别准确率分别达到了99.49%和99.30%,相比其他方法(如DE+PSD基线方法的90.90%和91.30%)有显著提升。

2025-03-04 14:38:01 905

原创 荣登Nature正刊!小样本学习妥妥Nature收割机!

例如,在分类任务中,TabPFN在默认设置下比CatBoost(最强基线)提升了0.187(从0.752提升到0.939),在调优设置下提升了0.13(从0.822提升到0.952)。性能提升:在OMNIGLOT数据集上,仅生成最后一层权重时,模型性能显著优于MAML++和RFS,1-shot任务的准确率提升了5.8%,5-shot任务的准确率提升了4.1%。小数据集适应性:FSFP在极少量数据(如20个样本)的情况下,能够显著提升PLMs的预测性能,即使在零样本性能较差的蛋白质上也能表现出色。

2025-03-03 11:40:22 582

原创 进来看!时间序列结合表示学习超强创新!!

在此背景下,时间序列表示学习(Time Series Representation Learning, TSRL)作为一种新兴范式,通过深度神经网络、自监督学习及对比学习等技术,将原始序列映射至低维潜在空间,在保留时序动态规律的同时实现特征解耦与语义抽象,显著提升了分类、预测和异常检测等下游任务的性能。时间对比模块:通过时间对比模块学习鲁棒的时间关系,显著提升了表示学习的性能(在HAR数据集上,TS-TCC比其他方法平均提升超过6%)。在Sleep-EDF数据集上,准确率提升了约3%。

2025-02-28 11:48:56 906

原创 2025创新方向:SHAP可解释性+聚类分析

模型性能提升:与传统的自动化超参数调整(AHT)方法相比,SCAL方法在测试集上的均方根误差(RMSE)降低了约10%-30%,R²值提高了约5%-15%,表明模型对未见数据的泛化能力更强。SHAP聚类的应用:首次将SHAP聚类应用于回归问题,通过聚类SHAP值识别数据中的不同模式,显著提高了模型对数据分布变化的适应性(例如在COVID-19疫情期间能源消耗模式的变化)。解释空间的优化:通过SHAP聚类优化解释空间,提高了模型解释的可理解性和透明度,同时通过减少噪声聚类,进一步提升了模型的鲁棒性。

2025-02-27 11:02:00 1014

原创 频域这么做绝了!结合卷积神经网络轻松发一区

例如,在Hermitian卷积中,混合去混叠的执行时间比显式去混叠快2-3倍,比隐式去混叠快1.5-2倍。例如,在8线程的三维卷积中,混合去混叠的执行时间比显式去混叠快4-5倍,比隐式去混叠快2-3倍。例如,在一维卷积中,混合去混叠的执行时间比显式去混叠快2-3倍,比隐式去混叠快1.5-2倍。例如,在二维卷积中,混合去混叠的执行时间比显式去混叠快3-4倍,比隐式去混叠快1.5-2倍。有效带宽提升:AdaKern通过增加高频成分的比例,显著提升了卷积核的有效带宽,例如在特征图的高频带内增加了20%的功率。

2025-02-26 14:04:46 574

原创 ICLR2025多尺度时间序列的最新SOTA

多尺度建模能力:Pathformer通过多尺度划分和双重注意力机制,能够同时捕捉时间序列的全局相关性和局部细节,显著提升了模型的预测精度。梯度稳定性提升:通过理论分析和实验验证,LEM在缓解梯度爆炸和消失问题方面表现出色,例如在EigenWorms数据集上,LEM的测试准确率达到了92.3%,比基线模型提高了约15%。动态系统逼近能力:LEM能够以高精度逼近复杂的多尺度动态系统,例如在FitzHugh-Nagumo系统预测任务中,LEM的测试L2误差仅为0.2,比基线LSTM模型降低了6倍。

2025-02-25 11:05:57 891

原创 登上Nature子刊!因果机器学习起步A会!

因果机器学习作为一门新兴且极具潜力的交叉学科,巧妙融合了因果推断理论与机器学习算法,致力于从海量数据中抽丝剥茧,精准辨识变量间的因果关联,进而为模型的解释性、可迁移性以及决策的科学性提供有力支撑。半平稳时间序列因果模型(Semi-Stationary SCM):提出了一种新的因果模型,用于描述具有周期性因果机制的非平稳时间序列,能够捕捉因果机制的交替和重复变化。罕见病诊断改进:在罕见病和极罕见病的诊断中,反事实算法的准确率分别提高了29.2%和32.9%,显著优于关联算法,减少了罕见病误诊的可能性。

2025-02-24 11:34:45 898

原创 超火创新点:可解释聚类颠覆传统上大分!

Propose-Assign-Select(PAS)算法:通过语言模型生成候选聚类的解释列表,然后根据解释将样本分类到聚类中,并使用整数线性规划选择一组候选聚类,以覆盖大多数样本并最小化重叠。机器学习模型训练:使用Fornax星系团的多波段成像数据(u、g、r、i、J和Ks六个滤波器)训练模型,以区分超致密矮星系(UCDs)和球状星团(GCs)与前景恒星和背景星系。理论保证:证明了随着叶子数量k′的增加,代理成本是非增的,从而在理论上支持了可解释性和准确性之间的权衡。

2025-02-21 11:56:08 807

原创 双热点结合!无监督+SAM 发文创新思路盘点

性能提升:BC-SAM在Matek-19和Acevedo-20数据集上的平均准确率分别达到92.51%和78.27%,显著优于现有的ResNext方法(Matek-19为96.10%,Acevedo-20为8.10%)。模型泛化:UnSAM+通过结合无监督伪掩码和少量有监督数据,进一步提升了模型的泛化能力,在SA-1B数据集上,其平均召回率(AR)比SAM高出6.7%,平均精度(AP)高出3.9%。效率提升:CAST在计算效率上显著优于SAM,仅使用4%的GFLOPS就能达到与SAM相当的性能。

2025-02-20 11:19:27 948

原创 预训练GNN真绝了!随随便便就发了CCF-A!

近年来,预训练 GNN 的研究逐渐兴起并蓬勃发展,它通过在大规模无监督或弱监督图数据上进行预训练,学习通用的图特征表示,进而为下游特定任务提供有力的初始化模型,有效缓解了图数据标注困难、小样本学习效果不佳等问题,显著提升了 GNN 在各类图分析任务中的性能与泛化能力。超越现有方法:在针对特定预训练策略的实验中,GPF和GPF-plus显著优于现有的专用提示调整方法,平均提升12%、3%和13%的性能。图结构提示学习:通过提示边传递预训练知识,避免了连续增量学习的复杂性,显著提高了模型的适应性和泛化能力。

2025-02-19 10:21:03 551

原创 多模态embedding再突破!创新改进方案盘点

灵活的模型架构:VISTA通过引入视觉标记嵌入,扩展了强大的文本编码器的能力,实现了文本和图像的深度融合。视觉表(Visual Table):提出了一种新的视觉表示形式,以层次化文本描述构建视觉场景,包含场景描述和多个以对象为中心的描述,涵盖对象类别、属性和知识。多模态语言模型(MLLMs)集成:将生成的视觉表作为视觉表示,集成到多模态语言模型中,用于提升视觉推理任务的性能。对齐复杂视觉场景:视觉表能够捕捉视觉场景中的丰富细节,如对象的属性和知识,从而在复杂的视觉推理任务中表现出色。

2025-02-18 11:28:31 652

原创 终于有人整理了!注意力机制缝合涨点神器

ECA模块在不同深度的CNN架构上均表现出色,例如在ResNet-101上Top-1准确率提升了1.8%,在MobileNetV2上Top-1准确率提升了0.9%。例如,在LSTM上,性能提升了35.99%;通道注意力模块优化:提出了一种高效的通道注意力(ECA)模块,通过避免降维和采用局部跨通道交互策略,仅使用少量参数即可显著提升深度卷积神经网络(CNN)的性能。避免吉布斯现象:首次提出基于DCT的频率增强通道注意力机制,避免了FT中的吉布斯现象,有效减少了高频噪声,提升了模型的预测性能。

2025-02-17 10:00:55 767

原创 GNN+Transformer=全局与局部完美融合!

这种结合不仅能够让两者发挥各自的优势,还能推动模型的创新,提高处理图数据的效率和性能。Geometric Transformer(Geoformer):通过结合IPE,Geoformer在QM9数据集上的多个属性预测中超越了现有的最先进算法(SoTA),在Molecule3D数据集上无论是随机分割还是骨架分割,都实现了最低的平均绝对误差(MAE)。理论支持:通过理论分析,验证了XR-Transformers的关键组件在邻域预测任务中的优势,进一步加深了对XR-Transformers和XMC问题的理解。

2025-02-14 13:58:26 567

原创 多模态依旧神一般的存在!结合遥感堪称涨点神器

例如,在University of Houston数据集上,结合HSI和LiDAR数据时,OA(总体精度)提升了约5.33%,AA(平均精度)提升了约1.57%,κ系数提升了约0.59%。迁移学习效率:通过统一的迁移学习框架,Mini-InternVL在特定领域的下游任务中表现出色,例如在自动驾驶任务中,Mini-InternVL-DA-4B的最终得分达到了0.5821,与InternVL4Drive-v2相当,但参数减少了约10倍。

2025-02-13 11:57:36 868

原创 注意力机制又火了!Attention+UNet 融合创新方案整理

在CHASEDB1和DRIVE数据集上的实验结果表明,CAS-UNet分别达到了96.68%和95.86%的准确率,以及83.21%和83.75%的灵敏度,优于现有的基于U-Net的经典算法。性能提升:在多个医学图像分割数据集上,DTA-UNet模型的IoU指标平均提升了约0.04,DSC指标平均提升了约0.05,HD指标平均降低了约0.1,显示出更高的分割精度和边界准确性。混合加权注意力机制(HWA):通过结合空间和通道注意力,模型能够更精准地聚焦于关键区域,显著提升了对重要特征的捕获能力。

2025-02-12 14:18:26 995 2

原创 大模型被偷家?CNN结合多模态!

多模态学习是指在不同类型数据之间学习共享表示的过程。孪生卷积神经网络(Siamese CNN):使用S-CNN架构,通过两个共享权重的CNN分支分别学习药物对的特征表示,并将结果输入到多层感知机中进行分类。图像和句子的卷积神经网络(CNN):使用图像CNN编码图像内容,匹配CNN建模图像和句子的联合表示。多模态匹配:通过不同层次(单词、短语、句子)的语义片段与图像的交互,学习图像和句子之间的匹配关系。多模态匹配的层次化处理:通过单词、短语和句子三个层次的匹配关系,全面捕捉图像和句子之间的语义关联。

2025-02-11 11:40:27 1244

原创 时间序列+预训练大模型 好发不卷!没有idea的可以冲

预训练模型通过在大规模数据上进行无监督学习,能够自动提取数据中的深层次特征,并且在迁移学习的框架下,可以快速适应不同的下游任务,显著提升模型的泛化能力和预测性能。遥感图像生成:通过条件扩散模型实现了从文本到图像的生成,解决了遥感图像数据稀缺的问题,性能提升显著,例如在高分辨率卫星图像生成中,通过两阶段扩散模型提高了生成图像的质量和分辨率。多模态融合:通过将不同模态的遥感图像作为条件输入,扩散模型能够更好地处理复杂的遥感场景,例如在SAR到光学图像的翻译任务中,通过多模态融合提高了生成图像的逼真度和一致性。

2025-02-10 15:06:17 1069

原创 GCN+Transformer 刷爆SOTA!计算效率提高3倍,参数降低75%

近年来,图神经网络(Graph Neural Networks, GNNs)在处理图结构数据方面取得了显著进展,而图卷积网络(Graph Convolutional Networks, GCNs)作为其中的重要分支,凭借其强大的图表示学习能力,在节点分类、图分类以及链接预测等任务中展现出卓越的性能。图变换器与多聚合图卷积网络结合:通过加权多聚合图卷积网络和图变换器的结合,有效消除了异质性的影响,捕获了更复杂的节点间关系,从而学习到更有效的节点表示。

2025-02-08 11:45:41 900

原创 狂发顶会顶刊:聚类+transformer 再出神作!

这些方法不仅提高了聚类性能,还优化了计算效率和模型的可解释性。从块到聚类的注意力:首次提出将块聚类用于视觉变换器的注意力机制,有效解决了传统块到块注意力机制的二次复杂度问题,同时通过聚类生成更具语义意义的视觉标记(在ImageNet-1k数据集上Top-1准确率提升了0.9%,达到83.08%)。层次聚类:通过层次聚类结构,模型能够学习更抽象的高层次聚类表示,显著提升了脑网络分析的准确性,AUROC在ABIDE数据集上提升了3.2%,在ABCD数据集上提升了1.7%。

2025-02-07 10:51:43 634

原创 轻松发TGRS!遥感结合小目标检测 模型达到94.2%mAP

性能与效率的平衡:DecoupleNet在保持高准确率的同时,显著降低了模型参数和计算量,例如在LoveDA数据集上,语义分割的mIoU达到了53.1%,且参数量和计算量仅为传统方法的一半。性能提升:在SIRST数据集上,HCF-Net的IoU和nIoU分别达到80.09%和78.31%,显著优于现有方法,例如UIUNet(IoU为78.25%,nIoU为75.15%)。性能提升显著:在遥感图像分类、目标检测和语义分割任务中,RFD模块显著提升了模型性能,例如在DOTA数据集上,检测性能提升了2%–7%。

2025-02-06 11:09:22 1013 1

原创 2025特征融合创新思路!动态特征融合暴力涨点

此外,通过整合ResNet,利用其固有的优势,如CNN的残差信息,减轻了梯度消失等问题,增强了网络捕捉复杂细节和语义信息的能力。例如在医学图像分割中,不同器官的形状和大小差异较大,传统方法难以有效融合多尺度特征,而DFF可以根据全局信息动态地调整不同尺度特征的权重,从而更好地捕捉和利用这些特征。动态特征融合(Dynamic Feature Fusion, DFF)是深度学习中一种用于融合多个特征的方法,通过动态学习调整每个特征的重要性,并将它们融合在一起以获得更准确的结果。

2025-02-05 11:55:52 1185

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除