- 博客(133)
- 收藏
- 关注
原创 深度学习可解释杀疯了!登上《Nature》正刊!屠榜双领域SOTA!
最近,深度学习可解释性领域又有新突破!从药物研发到疾病诊断,再到社交媒体情感分析,可解释的深度学习模型正逐渐改变着我们的生活。在人工智能领域,深度学习可解释性一直是备受关注的研究热点。诸多研究致力于构建融合可解释 AI 技术与深度学习模型的全新框架,打破传统黑箱模型的壁垒,将其转化为透明可理解的白箱模型,极大提升模型的透明度,助力人们精准洞察模型决策逻辑。在信息处理与分析维度,创新模型架构不断涌现,将先进的注意力机制与图卷积网络等深度融合,有效捕捉复杂关系,攻克以往模型的难题。
2025-04-01 11:45:36
499
原创 Transformer 过时了!MIT 液体神经网络 LNN 才是新趋势!
科学家受线虫微型大脑启发,研发出革命性19节点液态神经网络系统。这一脑启发的AI架构在自动驾驶控制任务中展现出惊人表现:仅用传统神经网络万分之一规模的神经元数量,即实现更优性能表现。该系统的核心优势在于其动态适应能力——不同于固定架构的传统模型,液态神经网络能在运行时持续学习并适应新数据流,展现出类脑的灵活性与环境交互能力。研究证实,我精心整理的的论文将为大家提供更全面的模型创新思路~全部论文+开源代码需要的同学看文末!
2025-03-31 11:25:58
503
原创 Nature招牌1区Top认证!可解释多模态融合模型取得重大突破!
作为序列建模领域的革命性技术,Mamba以线性复杂度的长距离依赖建模能力,与多模态技术的跨维度信息整合优势形成化学反应,推动模型在准确性、鲁棒性和泛化性上实现跨越式突破。从医疗影像的多模态诊断到工业质检的跨模态缺陷检测,从智慧城市的多源数据融合到元宇宙的沉浸式交互,技术应用版图持续裂变。学术领域更是成果井喷,如ICASSP 2025最新成果DepMamba,在多模态视频理解任务中实现计算效率与准确率的双重突破。
2025-03-28 15:30:03
909
原创 AI界「阴阳师」合体!LSTM+GAN是召唤SOTA神龙的魔法!
今天,让我们一同深入探讨深度学习领域中极富创新性的研究方向——。LSTM,作为处理序列数据的佼佼者,能出色地捕捉长期依赖关系;而GAN,则以学习复杂数据分布、生成逼真数据样本为专长。当这两者强强联手,犹如为模型注入强大动力,极大地提升了其处理复杂数据的能力,在时间序列分析、预测等任务中展现出卓越性能与更强的鲁棒性。目前,LSTM结合GAN在诸多领域已成果斐然。
2025-03-27 11:04:33
818
原创 LSTM创新点不足?LSTM + Transformer融合模型引领Nature新突破
2024年LSTM真的没有创新空间了吗?最新研究表明,通过将LSTM与Transformer巧妙融合,依然能创造出Nature级别的突破性成果。LSTM擅长处理短期时序模式,但在捕捉复杂长期依赖关系时表现有限;Transformer虽然具有强大的全局建模能力,却受限于高昂的计算成本。单独使用任一种模型都存在明显缺陷,而二者的优势互补为工程系统的高效实时预测开辟了新途径。本文将为您深度解析10篇LSTM + Transformer的前沿研究论文,揭示模型融合的创新思路~
2025-03-26 10:45:46
744
原创 Nature刊发!LLM反馈+生成式AI强势破局,科研圈彻底炸了!
优化正成为人工智能领域炙手可热的研究焦点,它为生成式AI的进化带来了前所未有的契机,使模型性能得以全方位跃升!生成式AI长期饱受生成内容质量参差不齐、与真实需求契合度欠佳、面对复杂任务力不从心等困扰。LLM反馈的介入宛如一场及时雨,为解决这些难题提供了新思路。LRP4RAG则敏锐洞察到检索增强生成(RAG)中存在的幻觉隐患,通过揭示幻觉与LLM内部状态的关联,提出高效检测方法,为生成式AI输出的可信度保驾护航。
2025-03-25 10:54:30
714
原创 一区Top期刊 Information Sciences 惨遭除名,2025中科院最新分区揭晓!
2025年中科院分区表的发布,无疑给大家带来了不小的震动。
2025-03-24 11:23:13
589
原创 时间序列+傅里叶:学术与实践双起飞,狂刷顶会SOTA!
还在为时间序列分析的瓶颈发愁?快来解锁傅里叶变换这个“秘密武器”!当时间序列遇上傅里叶变换,一场数据处理的革命悄然上演。这一前沿结合,将时间序列从单一的时域分析带入复杂精妙的频域世界,为攻克各类棘手难题开辟全新路径。论文《TSLANet: Rethinking Transformers for Time Series Representation Learning》开创性地集成独特模块,借傅里叶之力挖掘深层特征,打造高效轻量级模型。
2025-03-21 11:23:14
651
原创 CNN+LSTM强势回归!性能炸裂,顶会论文轻松收割!
卷积神经网络(CNN)能够逐层提取局部纹理、边缘等空间特征,在图像特征提取领域树立了黄金标准。而长短期记忆网络(LSTM)凭借其独特的门控机制,能够精准捕捉多尺度时间依赖,在金融时序预测、语音识别等序列建模任务中表现出色。CNN-LSTM混合架构通过实现了建模能力的飞跃。利用CNN的空间滤波器提取局部时序模式,再通过LSTM的门控机制建模全局动态演化规律,显著提升了模型的预测性能。
2025-03-20 10:37:47
487
原创 准确率超99%!多尺度特征融合+注意力机制,模型性能起飞!
多尺度特征融合通过构建跨分辨率特征金字塔(如FPN、U-Net++架构),可。而注意力机制则通过动态重标定,,优化了计算资源的分配。当前,多尺度与注意力协同架构是深度学习领域中的一大研究热点。例如木材近红外光谱分类方法BACNN,在测试集上的准确率高达**99.3%**。通过融合频域多尺度分解与注意力机制,该方法建立起,为多模态大模型的特征蒸馏、边缘设备的轻量化部署提供兼具理论完备性与工程可行性的新一代架构。本文精选,供同学们参考学习。整理不易,麻烦大家点个免费的赞~
2025-03-19 11:15:47
1132
原创 12篇论文助力贝叶斯神经网络,一整个被拿捏住,狂发顶会!
作为深度学习领域的创新技术,正逐渐改变着我们对模型预测和不确定性处理的方式。它突破了传统神经网络的局限,通过引入贝叶斯推断,将网络参数视为概率分布,不仅能给出预测结果,还能量化预测的不确定性,为决策提供更可靠的依据。在实际应用中,BNN展现出了巨大的潜力。从工程领域的疲劳寿命预测,到航空航天的气动载荷估计,它都能随着研究的深入,BNN相关的成果不断涌现,在顶会顶刊上频繁亮相,为众多研究方向提供了新的思路和方法。如果你对BNN感兴趣,想要探索其更多的可能性,那么我给大家提供的将是绝佳的起点。
2025-03-18 10:52:32
546
原创 图模型训练时间砍半!GCN+Transformer新范式,3倍加速还让准确率冲顶!
图卷积网络(GCN)通过谱域卷积算子实现节点特征的拓扑传播,能够有效捕获节点间的局部同构性,为等任务提供了精准的图表示学习框架。而 Transformer 凭借多头自注意力机制,在机器翻译、时序预测等场景中展现出强大统治力。本文精选13篇,供有需要的同学无偿领取。整理不易,麻烦大家点个免费的赞哦~全部论文+开源代码需要的同学看文末。
2025-03-17 10:21:30
688
原创 1+1>2!小波变换+CNN,准确率接近百分百!
近年来,研究者开始探索将小波变换与卷积神经网络(CNN)深度融合,通过构造基于小波基函数的可学习卷积核,实现了数学理论与深度学习框架的有机统一。这种创新性结合不仅继承了,在医学影像分析、遥感图像解译等领域展现出显著优势。这种融合方法为建立具备物理意义的深度学习模型开辟了新方向,特别是在处理等关键任务时展现出独特的研究价值,为构建新一代可解释性人工智能系统提供了重要的理论支撑。本文整理了 12 篇最新的小波变换与 CNN 前沿论文,同学们有需要可以自取~、全部论文+开源代码需要的同学看文末。
2025-03-14 10:41:53
509
原创 频域革命来了!傅里叶变换+时间序列分析引爆顶会顶刊!
近年来,"傅里叶变换+时间序列"的跨域融合在NeurIPS、ICLR等顶会引发了持续关注。该范式通过快速傅里叶变换(FFT)将原始时序数据映射至频域空间,有效分离趋势项、周期项和噪声分量,为后续建模提供物理可解释的特征基底。相较于传统时域建模,该组合展现出三重显著优势:频域特征提取增强模型对复杂周期模式的捕获能力,在预测任务中误差大幅降低;残差频段重构机制提升了模型对突变信号的灵敏度;基于 FFT 的频域稀疏化处理使时序模型的训练效率显著提升。
2025-03-13 10:48:18
562
原创 Mamba+Transformer这对科研CP大猛,成为 CVPR 2025 绝对的宠儿,狂发顶会,神作频出!
在人工智能前沿研究中,是当下备受瞩目的焦点。计算机视觉领域,英伟达团队研发的MambaVision成功入选顶级会议CVPR 2025。其采用分层架构,前两阶段借CNN层快速提取高分辨率特征,后两阶段。Mamba模块经创新改造,将因果卷积替换为常规卷积并新增对称分支。这一设计使MambaVision在Top - 1精度和图像吞吐量上超越同类模型,实现新SOTA。自然语言处理方面,作为备受关注。
2025-03-12 11:07:54
849
原创 特征融合这样做!GNN强强联合,我发那顶刊一区如探索取物!
在面对复杂关系结构的数据时,特征融合与图神经网络(GNN)的结合方案能够显著提升模型的表示能力和预测性能。其核心优势在于能够有效整合多源特征信息,并借助GNN的强大能力精准刻画节点间的复杂关系。这一方法在医疗数据分析和情感识别等场景中表现尤为突出,能够充分发挥其对复杂关系的建模优势,为相关应用提供更精准的解决方案。该领域的研究热度持续攀升,主要得益于双重研究热点的交叉融合,叠加数据驱动方法的天然优势(具备处理非数据的能力,适用场景广泛且便于实验对比)。
2025-03-11 10:39:31
774
原创 惊!多尺度特征融合竟能让 EEG 情感识别准确率飙升至 99% 以上,秘密何在?
在人工智能快速发展的背景下,多尺度特征融合成为计算机视觉、脑机接口和医学影像分析等领域的研究热点。计算机视觉中,如何有效捕捉图像的多尺度特征以提升目标识别和场景理解能力是关键挑战。脑机接口领域,从EEG信号中提取准确的情感信息对智能人机交互系统至关重要。医学影像分析则需融合多层次特征以辅助精准诊断。近期研究提出了多项创新成果。
2025-03-10 11:33:31
654
原创 总理在政府工作报告中提到具身智能,so!这是个什么玩意?竟也能帮我发高分顶会
3月5日,李强总理在政府工作报告时提到,“将建立未来产业投入增长机制,培育生物制造、量子科技、、6G等未来产业”。在未来具身智能势必会有爆发式的发展。从学术研究的角度来看,具身智能已成为各大顶会的热门议题。以CVPR 2025为例,具身智能成功跻身热门研究领域前三,充分展现了其重要性。那么总理提到的是个什么呢?目前,的研究主要集中在四个核心方向:具身感知、具身互动、具身智能体以及虚拟到现实的迁移。这些方向不仅是学术前沿,也为研究者提供了丰富的创新空间。如果你想在顶会上脱颖而出,建议从这四个角度切入研究。
2025-03-07 11:44:35
587
原创 2025 Attention 再爆猛料!姚期智团队开源新型注意力机制,降本90% 直冲顶会!
踏入2025年,不少科研人心中都有一个疑惑:仅靠改动注意力机制还能发表高质量论文吗?别急,姚期智大佬团队携新型注意力机制TPA强势登场,给出了响亮答案!TPA在节省高达90%内存占用的同时,性能丝毫不受影响,有望重塑现代注意力设计的格局。如今,单纯调整层数已难以在注意力机制领域掀起水花,想要突破,必须另谋出路。多头注意力机制、注意力机制融合、层次注意力机制等创新方向,正等待着科研人去探索。正如姚院士团队,巧妙改进多头注意力机制,并融入自适应注意力权重,取得令人瞩目的成果。
2025-03-06 11:52:46
758
原创 RMT模块 CVPR‘24|RMT:暴打SWin5个点!RetNet与ViT完美结合~
标题:RMT: Retentive Networks Meet Vision Transformers论文链接:https://arxiv.org/pdf/2309.11523代码链接:https://github.com/qhfan/RMT单位:中国科学院自动化研究所 & CRIPAC,中国科学院大学人工智能学院,北京科技大学关注公众号:AI前沿速递,各种重磅干货,第一时间送达。
2025-03-05 11:27:50
898
原创 LLM实践--理解Language Model是如何到PPO的 理论篇
作为一个NLP出身(划掉,其实是推荐出身)的搬砖工,在上手实操RLHF之前,曾经多次学习RL相关知识,但是学几次忘记次。现在想来,我认为是因为RL和NLP的符号体系、描述体系、动机,以及应用背景的差异,使我没办法建立新知识和已有知识的联系。用LLM的话来讲,就是分布差异太大,语义空间没有对齐。去年下半年我就经常和同事研究RLHF相关的训练方法,随着各种开源框架的发布、OpenAI的RFT和R1这一波Zero,我们都觉得RL训练之后会在LLM中越来越普及。所以我打算趁此机会重新从NLP的角度再理解一遍RLHF
2025-02-21 10:47:04
752
原创 为什么我还是觉得DeepSeek-R1-Zero的纯RL也不是“真的”RL,就是监督学习?
只是为了方便人类理解,以及传入人类的监督信号,我们把它展示在了自然语言空间。这个时候,RL就是必须的了。但很遗憾,我们不一定知道最优动作是啥,也没法获取所有的(st,at)对。但人类的文本,可以看做是最优动作的近似。举个例子,“我爱北京天安门”,“我爱北京天安”是st,那么下一个近似最优的at就是“门”。pretrain阶段的next token prediction 其实可以看作是BC,即克隆“人类”的“行为”。此时,你会发现,这时要做的不仅是对下一个token(at)做预测,是要对一段at序列做预测。
2025-02-18 11:07:50
198
原创 Why is Deepseek? 研究DeepSeek的第一篇
deepseek刷屏了一阵子, 导师最终还是让我看看其中的真假了.LLM Speculative sampling一直在寻找如何压缩更小的参数到草稿模型,以至于形成更精确的target model猜测, 确实需要对参数可解释性与输出分布可解释性有所了解.本着先忠于原著, 不看二次解读的做法, 就想着自己先读一遍.开篇的我确实不太懂deepseek究竟有啥用处, so just read it.
2025-02-17 16:24:32
856
原创 MoE(Mixture-of-Experts)大模型架构的优势是什么?为什么?
先说点背景吧。MoE 架构之所以瞬间火起来,是因为人们发现,你可以在不等比例增加计算开销(FLOPs)的前提下,让模型拥有极其庞大的参数量。核心思路在于:对每个 token,只激活少量的专家参与计算,而不是让所有参数统统上场。但这种“只让部分专家工作”的做法,很快就暴露了一大问题:如果只把 token 分给几个专家,那怎么保证负载是均衡的?要是某个专家被一大堆 token 疯狂轰炸,而其他专家却闲得无聊怎么办?这就是负载均衡的本质,也是 MoE 要大规模应用时必须解决的一道难题。
2025-02-13 14:14:12
889
原创 40个DeepSeek喂饭指令,一天一篇sci!
请协助我总结研究结果,确保内容简洁明了,能够清晰地呈现关键发现,并有效支持我的研究假设或研究问题。总结应突出研究的核心成果,避免冗余信息,使读者能够快速把握研究的要点。
2025-02-12 14:59:41
999
原创 DeepSeek-R1蒸馏技术:让小模型“继承”大模型的推理超能力
如果用泡茶来比喻,蒸馏就像提取茶叶中最精华的香气和味道,将其浓缩到一杯水中。**教师生成“解题笔记”:**大模型(教师)针对数学、代码等任务生成详细答案,例如解方程时每一步的推导逻辑。**学生模仿“思维模式”:**小模型(学生)不再死记硬背答案,而是学习教师解题时的决策过程,比如优先选择哪种公式、如何验证结果。**提炼“知识精华”:**最终,小模型能像教师一样举一反三,甚至在未见过的新题型上灵活应用学到的策略。
2025-02-11 11:21:23
807
原创 如何从头训练大语言模型: A simple technical report
今天来快速捋一下路线,写个简短的technical report,更多是原理介绍性的。按我个人理解,从最简单的部分开始,逐步过渡到最繁复的环节: 模型架构-> Pretrain -> Post-Train -> Infra -> 数据侧。再掺杂一些杂项,比如工具调用,agent, 推理解码, 长文本。大模型时代,倒不是看谁代码写的好了,只有涉猎广泛, 有训练经验, 能进行Infra的debug, 肯认真做数据,才是王道。所以我觉得眼下最有价值的文章,还得看大厂技术报告。
2025-02-10 13:47:52
800
原创 AI教母李飞飞团队训练出媲美DeepSeek R1的推理模型,云计算费用不到50美元!
2025 年 1 月,李飞飞团队提出了一种极简的测试时扩展(test-time scaling)方法,仅需对预训练模型进行少量监督微调(SFT)并结合动态推理控制技术,即可显著提升语言模型的数学推理能力。团队精心构建了包含 1000 个问题及对应推理过程的小型数据集 s1K,该数据集依据难度、多样性和质量三大标准进行严格筛选。同时,开发了预算强制(budget forcing)技术,此技术可在测试阶段精准控制模型的思考时间,灵活地强制终止或延长模型的推理过程。这篇文章在某种程度上证明了极简数据+动态控制。
2025-02-07 11:03:47
1277
原创 Deepseek R1 Zero成功复现, 三阶段RL,Response长度涨幅超50%,涌现语言混杂,double-check, Verify, Let‘s Summarize!
欢迎关注和star!我们将开源完整的wandb曲线和训练日志,知乎:涮月亮的谪仙人(已授权)链接:https://zhuanlan.zhihu.com/p/21290410831。
2025-02-06 14:04:56
1047
原创 本地部署最强开源模型—DeepSeek-r1(保姆喂饭级教程)
特斯拉的颠覆性创新,从来不只是硅谷实验室的灵光乍现,而是整个北美科技森林共生共荣的果实。他们总能在技术拐点到来前三年埋下种子,用工程师文化浇灌创新萌芽。中国人工智能的破局,正需要这样的生态雨林。太多国产操作系统止步于实验室,恰因缺少开源的阳光雨露,只能做技术潮流的追随者。因此,中国必须要有自己的数字原住民,在代码荒原上开垦出开源社区。
2025-02-06 11:24:07
1729
原创 CVPR | CNN融合注意力机制,芜湖起飞!
*标题:**On the Integration of Self-Attention and Convolution**论文链接:**https://arxiv.org/pdf/2111.14556**代码链接:**https://github.com/LeapLabTHU/ACmix。
2025-02-05 10:24:58
1658
原创 EfficientViT模块
*标题:**EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense Prediction**代码链接:**https://github.com/mit-han-lab/efficientvit**
2025-01-24 11:12:07
756
转载 漫谈 Transformer 中的绝对位置编码、相对位置编码和融合位置编码(旋转位置编码 RoPE)
Transformer [1] 中的注意力机制可以有效建模 token 之间的相关性,在诸多任务中取得了显著的性能提升。然而,注意力机制本身并不具备对 token 位置信息的感知能力,即经过注意力机制计算后,结果只依赖于 token 之间的相关性,而与 token 的位置信息无关。然而,众所周知,位置信息在长序列建模中至关重要,因此需要一种方式显示的机制对每个 token 的位置信息进行编码,以使模型能够感知到每个 token 的位置信息。
2025-01-23 10:10:37
328
原创 像教女朋友一样教你用Cuda实现PyTorch算子
前段时间一直在做算子上的优化加速工作,在和其他同学的讨论中发现用Cuda编写算子存在一定的门槛。虽然知乎上有很多优秀的教学指南、PyTorch官方也给出了tutorial(具体地址会放在文章末尾),但是对于每个环节的介绍与踩坑点似乎没有详实的说明。结合我当时入门踩坑的惨痛经验,一个简单明了的demo能够大大减小上手的时间成本。所以我在这里以数组求和(下称sum_single)、两数组相加(下称sum_double) 为例,详细介绍一下用Cuda实现PyTorch算子的完整框架,具体的代码详见。
2025-01-22 13:57:33
578
原创 关于 NeurIPS 2024 俺的一点小总结!
作者:meisah链接:https://zhuanlan.zhihu.com/p/14053021617来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。今年因为中了文章,签证也没有被卡,所以非常幸运的去线下参加了neurips。本次nips还是亮点很多,后面会逐一分享总结一下。注意!!!这个总结有非常强的主观色彩,本人很多海报都没看,oral也没咋听,大家仅供参考即可。大厂之间的视频生成模型之战数据公司和算力平台大行其道agent创业公司的意外火爆。
2024-12-27 10:23:09
1124
原创 深度学习中的特征到底是什么?
如何想让网络模型生成的图像具有更多的边缘纹理信息,除了损失函数数用sobel作边缘损失以外,最。常见的图像特征,如sobel边缘算子,提取出来的是图像的边缘特征信息,表示的是图像中像素有突。如何设计损失函数,直接作L1L2损失,加个鉴别器(网络)是概率分布相关的损失,加个深度检测。网络是检测目标显著性的损失,加个语义分割+网络是检测语义信息的损失。以上,有图像、边缘、概率分布等信息域,因为损失是没办法完全为0的,只能尽可能的趋近于,因。VGG19的感知损失+是将图像在VGG19的不同层次的特征上趋于一致。
2024-12-23 14:31:34
389
原创 中科院二区idea:迁移学习+CNN!创新力max,这思路我先抄为敬~
在深度学习领域,高质量的标注数据对于训练高效模型至关重要,但这类数据的获取往往既费时又昂贵。幸运的是,迁移学习技术能够利用预训练模型的丰富知识,减少新任务的训练时间和计算资源消耗,甚至在数据较少的情况下也能保持较好的性能,有效减轻了对大量标注数据的依赖。将迁移学习与卷积神经网络(CNN)相结合,能够显著提升CNN的特征提取能力,使其能够识别更复杂和细微的特征,进而增强模型的整体性能。这种结合方法广泛应用于图像分类、语音识别和自然语言处理等多种任务。
2024-12-19 11:28:30
685
原创 请问深度学习直接缝了别的模型,在论文中这种创新点应该如何描述呢?
作为散养硕士,我们希望能早早发小论文,然后去实习&考公&考编,虽然知道网上大家都说缝模块来水论文,那怎样才能优雅的缝出一篇中稿率更高的论文(即如何更好地讲故事)呢?简洁版:相似领域找灵感,边试边改勇投稿。相似领域比如说,最新的顶刊顶会的通用骨干网络,可以作为你的骨干网络,相似领域的模块,可以作为你其中信息融合或者其他的模块。多模态的目标检测/语义分割/目标跟踪,行人重识别,红外与可见光图像融合,这些就是相互之间为相似领域。超分/去雾/去噪/去云/低光增强等里面的模块,都可以作为别的领域的模块。甚至传统的图像
2024-12-17 13:35:36
1651
原创 图神经网络再次火爆!25个顶会方案,助你快速搞定创新点!
图神经网络(GNNs)因其出色的建模和分析能力,在社交网络分析、推荐系统、知识图谱、文本分析等多个领域展现出广泛的应用潜力,已经成为人工智能研究的热点之一。在今年的顶级学术会议上,GNN相关的论文数量众多,再次印证了其研究的热度。对于有志于发表学术论文的学者来说,现在正是投身这一领域的绝佳时机。为了帮助大家迅速捕捉研究灵感,我特别整理了近两年内图神经网络领域的25篇顶级会议优秀论文,这些论文覆盖了可解释性、图变换器(Graph Transformer)、图结构学习等当前的热门研究主题。
2024-10-24 11:31:08
1188
原创 即插即用特征融合模块,即用即涨点!
特征融合(Feature Fusion)是深度学习中的一种重要技术,它可以帮助模型更好地理解数据的内在结构和规律,提高模型的性能和泛化能力。另外,特征融合还可以提高模型的分类准确率,减少过拟合风险,帮助我们更好地利用数据集。目前已有的特征融合方法已经取得了显著的进展,但仍然存在一些挑战和问题。为了进一步探索新的特征融合方法,以更好地解决上述问题,研究者们提出了许多优秀的魔改方法。
2024-10-21 10:48:43
2001
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人